亚洲精品自慰成人无码三级片|伊人乱码一区一站|美女黄片免费在线观看|手机在线观看无码片子|中文字幕日本强奸|91大神无码六月婷国产|日韩一区二区三区激情精品|亚洲成人网日韩有码|欧美日韩精品一区二区三区视频播放|Av在线收看日韩无天操
人工智能考試
歡迎參加本次人工智能考試,請認真作答以下題目。
1. 基本信息:
姓名:
部門:
員工編號:
第一部分 單選題
2. 粒子群優(yōu)化算法中,群體歷史最優(yōu)位置的更新是( )。
實時的
定期的
固定的
隨機的
3. 遺傳算法中,變異的作用不包括( )。
幫助算法跳出局部最優(yōu)解
加快算法收斂
引入新的遺傳信息
增加種群的多樣性
4. 遺傳算法中,選擇算子的作用不包括( )。
確保找到最優(yōu)解
避免盲目搜索
決定哪些個體能夠參與繁殖
影響種群的進化方向
5. 遺傳算法中,用( )表示基因。
符號串
矩陣
實數(shù)
向量
6. 遺傳算法中,模擬物種“繁殖”的過程是( )。
隨機生成新的個體
從種群中選擇兩個個體,隨機確定一個染色體的“斷裂點”,交叉雙親的染色體生成新的個體
引入新基因
從種群中選擇一個個體,進行復(fù)制
7. 遺傳算法中,基因交叉的概率稱為( )。
交叉算子
選擇算子
突變算子
繁殖算子
8. 遺傳算法中,評價每個個體的適應(yīng)能力通過( )實現(xiàn)。
估價函數(shù)
目標函數(shù)
適應(yīng)度函數(shù)
損失函數(shù)
第二部分 判斷題
9. 人工智能的研究范疇僅限于模擬單個智能體的智能活動。
對
錯
10. 進化智能算法適用于所有類型的問題。
對
錯
11. 粒子群優(yōu)化算法是基于單個鳥覓食策略的研究提出的。
對
錯
12. 遺傳算法和群體智能算法都來源于生物學(xué)、生態(tài)學(xué)等領(lǐng)域。
對
錯
13. 群體智能算法中,個體之間的交互協(xié)作是關(guān)鍵,而個體經(jīng)驗就不需要考慮了。
對
錯
14. 粒子群優(yōu)化算法不需要考慮個體的歷史最優(yōu)位置。
對
錯
15. 進化智能算法中,物種的進化是通過不斷地試錯實現(xiàn)的。
對
錯
16. 群體智能算法可以解決所有類型的問題。
對
錯
17. 進化智能算法中,選擇操作的目的是保留優(yōu)秀的個體,淘汰劣質(zhì)的個體。
對
錯
18. 遺傳算法中,環(huán)境的設(shè)計要保證最優(yōu)解對應(yīng)的個體具有最強的適應(yīng)能力,最優(yōu)解個體的“基因”有更高的概率在代際傳遞和保持。
對
錯
第三部分 單選題
19. 下列關(guān)于無監(jiān)督學(xué)習(xí)的說法不正確的是
K 均值(K means)算法與K近鄰算法中最初選擇的K個點會影響最終結(jié)果
聚類算法無需事先指定聚類的數(shù)目,而是根據(jù)訓(xùn)練數(shù)據(jù)迭代得到
無監(jiān)督學(xué)習(xí)中不需要人工標注知識
有效的距離計算方法能夠提高K 均值(K means)算法的精確度
20. 有關(guān)機器學(xué)習(xí),說法錯誤的是:
機器學(xué)習(xí)系統(tǒng)不可以學(xué)習(xí)人的判斷過程
計算機學(xué)習(xí)人解決問題的“經(jīng)驗”,并模仿人來解決問題
機器學(xué)習(xí)系統(tǒng)使用樣本數(shù)據(jù)來建立并更新模型,并以可理解的符號形式表達,使經(jīng)過更新后的模型處理同源數(shù)據(jù)的能力得以提升
機器學(xué)習(xí)系統(tǒng)利用經(jīng)驗來改善計算機系統(tǒng)自身的性能
21. 關(guān)于決策樹,說法有誤的是:
決策樹算法是無監(jiān)督學(xué)習(xí)
屬性在決策樹中的位置不同,決策樹的效率是不同的
如果根據(jù)一個屬性做判斷,樣本仍然有若干種情況,則該屬性不應(yīng)該出現(xiàn)在決策早期
規(guī)則歸納問題,適合用決策樹來表示
22. K 近鄰(KNN)算法中,“K”指的是什么?
最近鄰居的數(shù)量
數(shù)據(jù)集的大小
分類的類別數(shù)
特征的數(shù)量
23. 決策樹是一種常用的機器學(xué)習(xí)算法,它主要是用來做什么的?
進行時間序列預(yù)測
對數(shù)據(jù)進行降維
實現(xiàn)圖像識別
進行分類和回歸任務(wù)
24. 在機器學(xué)習(xí)中,以下哪項是監(jiān)督學(xué)習(xí)的例子?
層次聚類
K 均值
決策樹
聚類分析
25. 哪種類型的機器學(xué)習(xí)算法不需要事先知道數(shù)據(jù)分布?
強化學(xué)習(xí)
無監(jiān)督學(xué)習(xí)
半監(jiān)督學(xué)習(xí)
有監(jiān)督學(xué)習(xí)
26. 強化學(xué)習(xí)與監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的主要區(qū)別是什么?
強化學(xué)習(xí)不使用迭代的學(xué)習(xí)過程
強化學(xué)習(xí)側(cè)重于如何基于環(huán)境反饋做出決策
強化學(xué)習(xí)主要用于分類問題
強化學(xué)習(xí)不需要標簽數(shù)據(jù)
27. 在無監(jiān)督學(xué)習(xí)中,"cluster"(簇或者聚類)指的是什么?
一種數(shù)據(jù)預(yù)處理技術(shù)
一組具有相似屬性的對象集合
一個數(shù)據(jù)集的子集
一種機器學(xué)習(xí)模型
28. K均值聚類算法初始化時需要選擇什么?
數(shù)據(jù)預(yù)處理方法
聚類的標簽
初始中心點
距離度量標準
29. 機器學(xué)習(xí)是一種讓計算機系統(tǒng)利用___來改進其性能的技術(shù)。
經(jīng)驗
用戶輸入
預(yù)編程指令
隨機數(shù)
30. 在機器學(xué)習(xí)中,評估模型性能時,通常使用( )來評估模型的泛化能力。
知識集
驗證集
訓(xùn)練集
測試集
31. 強化學(xué)習(xí)的核心組成部分包括( )(1)狀態(tài)(state)(2)動作(action)(3)獎勵函數(shù)(reward function)
(1)(3)
(2)(3)
(1)(2)
(1)(2)(3)
32. 監(jiān)督學(xué)習(xí)中,模型訓(xùn)練的目的是( )
使模型能夠擬合所有的訓(xùn)練數(shù)據(jù)
增加模型的復(fù)雜度
調(diào)整模型參數(shù),以最小化預(yù)測錯誤
驗證模型的性能
33. 無監(jiān)督學(xué)習(xí)中,聚類算法的結(jié)果受到( )的影響。1)數(shù)據(jù)的分布(2)初始聚類中心的選擇(3)簇的數(shù)量
(1)(3)
(1)(2)(3)
(2)(3)
(1)(2)
34. 以下關(guān)于機器學(xué)習(xí)中數(shù)據(jù)集成與規(guī)約的說法,正確的是( )
數(shù)據(jù)集成只需要考慮數(shù)據(jù)的格式,不需要考慮數(shù)據(jù)的內(nèi)容
數(shù)據(jù)集成是將不同來源的數(shù)據(jù)合并成一個一致的數(shù)據(jù)集合
數(shù)據(jù)集成與規(guī)約對模型性能沒有影響
數(shù)據(jù)規(guī)約是增加數(shù)據(jù)量,以使數(shù)據(jù)處理更加高效
35. 無監(jiān)督學(xué)習(xí)中,聚類算法的好壞可以通過( )來評估。(1)聚類結(jié)果的準確性(2)聚類結(jié)果的穩(wěn)定性(3)聚類結(jié)果的可解釋性
(3)
(1)
(1)(2)
(1)(2)(3)
36. 20世紀50年代中期 60年代中期,人們試圖通過軟件編程使計算機具有智能思考能力,但結(jié)果未達到期望,原因是( )
計算機硬件性能不足
計算機缺乏大量的先驗知識
軟件編程技術(shù)不夠成熟
計算機缺乏邏輯推理能力
37. K 近鄰算法的核心思想是( )
“站隊”
決策樹
支持向量機
聚類
38. 決策樹中,內(nèi)部節(jié)點的屬性測試結(jié)果決定了( )
葉子結(jié)點的數(shù)量
分支的走向
樣本的類別
決策的結(jié)果
39. 在監(jiān)督學(xué)習(xí)中,已知的輸入和輸出是在( )之前就確定的。
模型訓(xùn)練
模型選擇
數(shù)據(jù)預(yù)處理
數(shù)據(jù)收集
40. 監(jiān)督學(xué)習(xí)中,K 近鄰算法是一種( )
線性分類器
非線性分類器
聚類算法
降維算法
41. 以下哪個不是機器學(xué)習(xí)的定義( )
計算機獲得簡單的輸入給出期望的輸出
在進行特定編程的情況下給予計算機學(xué)習(xí)能力
一個程序被認為能從經(jīng)驗中學(xué)習(xí),解決任務(wù),達到性能度量值
利用經(jīng)驗改善系統(tǒng)自身的性能,從數(shù)據(jù)里面挖掘出有用的價值
42. 監(jiān)督學(xué)習(xí)的任務(wù)是建立一個( )
只有輸入的模型
輸入準確映射到輸出的模型
只有輸出的模型
不需要輸入和輸出的模型
43. K 近鄰算法中,K值的選擇通常根據(jù)( )來確定。(1)數(shù)據(jù)的特點(2)經(jīng)驗和試驗(3)模型的復(fù)雜度
(2)(3)
(1)(3)
(1)(2)(3)
(1)(2)
第四部分 多選題
44. 以下關(guān)于K 近鄰算法的說法正確的有( )
對參數(shù)的選擇很敏感
計算量特別大
核心思想是“近朱者赤,近墨者黑”
可以使用諺語“站隊”來說明
45. 下面關(guān)于支持向量機(SVM)說法正確的是( )
將實例表示為空間中的點
提高分類的準確性
減少了計算量
使不同類別的實例被盡可能大地分割開來
46. 以下關(guān)于強化學(xué)習(xí)中智能體(Agent)的說法,正確的有( )
環(huán)境對其試探動作的反饋是評價性的(好或壞)
能夠觀察環(huán)境并根據(jù)信息做出決策
能夠在行動 評價的環(huán)境中獲得知識,改進行動方案,達到預(yù)期目的
具有主動對環(huán)境做出試探的特點
47. 無監(jiān)督學(xué)習(xí)的應(yīng)用場景包括( )
市場細分
數(shù)據(jù)壓縮
圖像分割
自然語言處理
48. 以下關(guān)于機器學(xué)習(xí)在實際應(yīng)用中的說法,正確的有( )
可以幫助人們從數(shù)據(jù)中發(fā)現(xiàn)有價值的信息
需要對數(shù)據(jù)進行預(yù)處理和特征工程
不同的應(yīng)用場景可能需要不同的機器學(xué)習(xí)算法
可以用于圖像識別、語音識別等領(lǐng)域
第五部分 判斷題
49. 機器學(xué)習(xí)致力于研究如何通過計算機的手段,利用符號化的知識改善系統(tǒng)自身的性能。
對
錯
50. 機器學(xué)習(xí)中,經(jīng)驗誤差是在“未來”樣本上的誤差,泛化誤差是在訓(xùn)練集上的誤差。
對
錯
51. 支持向量機在處理高維數(shù)據(jù)時表現(xiàn)出色。
對
錯
52. 在自動駕駛中,強化學(xué)習(xí)可以通過分析路況和交通信號來實現(xiàn)智能的行駛決策。
對
錯
53. 機器學(xué)習(xí)中,訓(xùn)練集、驗證集和測試集的劃分應(yīng)該是隨機的,以保證數(shù)據(jù)的代表性和無偏性。
對
錯
54. 機器學(xué)習(xí)作為人工智能的一個分支,其研究重點在于讓計算機能夠從數(shù)據(jù)中學(xué)習(xí)并作出決策。
對
錯
55. 損失函數(shù)在監(jiān)督學(xué)習(xí)中被用來衡量模型預(yù)測的準確性。
對
錯
56. 決策樹是一種僅用于分類問題的監(jiān)督學(xué)習(xí)算法。
對
錯
57. K均值聚類算法是一種監(jiān)督學(xué)習(xí)算法。
對
錯
58. 在機器學(xué)習(xí)中,過擬合是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在新的未見過的數(shù)據(jù)上表現(xiàn)不佳的現(xiàn)象。
對
錯
第六部分 單選題
59. 以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)(FNN)的說法正確的是
一個標準的前饋神經(jīng)網(wǎng)絡(luò)只有一個輸入層和一個輸出層
FNN的同層神經(jīng)元之間存在連接
在FNN中,輸入信號的傳遞方向是明確的,并不存在反向信號傳遞
FNN的輸出結(jié)果只能是向量
60. 以下說法中,不屬于感知器和FNN模型的相同點的是
二者都有輸入、激活和輸出
二者都是由多個神經(jīng)元組成的多層神經(jīng)網(wǎng)絡(luò)
輸入信號向后傳遞的過程中,都是加權(quán)和的計算
二者學(xué)習(xí)的關(guān)鍵都是神經(jīng)元的損失計算
61. 下列關(guān)于“感知器”的說法不正確的是
感知器的信號處理分為“輸入、匯總、激活、輸出”四個部分
學(xué)習(xí)率用于控制權(quán)重調(diào)整
感知器學(xué)習(xí)樣本特征的過程在模型中體現(xiàn)為感知器權(quán)重的調(diào)整過程
感知器的誤差足夠精確,權(quán)重能夠快速收斂
62. 下列關(guān)于人工神經(jīng)網(wǎng)絡(luò)的說法錯誤的是
損失函數(shù)用于衡量當(dāng)前權(quán)重在整個數(shù)據(jù)集上的總誤差
Sigmoid函數(shù)是連續(xù)可導(dǎo)的,同時具有“兩極分化”的特點
感知器模型的激活函數(shù)可導(dǎo),可以通過梯度下降求解損失函數(shù)最小值
標準神經(jīng)元每個輸入端具有不同的權(quán)重
63. 關(guān)于前饋神經(jīng)網(wǎng)絡(luò),以下說法不正確的是:
隱含層,是指其中神經(jīng)元的狀態(tài)在輸出端無法直接觀測
同層神經(jīng)元之間存在連接
隱含層輸入的權(quán)重需要學(xué)習(xí)得到
在前饋神經(jīng)網(wǎng)絡(luò)FNN中,隱含層均為標準神經(jīng)元,帶有激活函數(shù)
64. 多層感知機(MLP)中隱藏層的作用是什么?
減少計算復(fù)雜度
提取高級特征
輸出結(jié)果
傳遞輸入數(shù)據(jù)
65. 在BP神經(jīng)網(wǎng)絡(luò)中,前向傳播的主要步驟是什么?
逐層更新權(quán)重
逐層計算誤差
逐層計算神經(jīng)元輸出
逐層計算神經(jīng)元輸入
66. 在神經(jīng)網(wǎng)絡(luò)中,損失函數(shù)的主要作用是什么?
度量預(yù)測與實際差異
控制學(xué)習(xí)率
更新網(wǎng)絡(luò)權(quán)重
調(diào)整激活函數(shù)
67. 在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,使用的激活函數(shù)通常是非線性的,為什么?
增加計算復(fù)雜度
捕捉復(fù)雜模式
增加模型的線性性
減少計算時間
68. 在神經(jīng)網(wǎng)絡(luò)中,反向傳播算法如何更新權(quán)重?
沿輸出方向
沿梯度上升方向
沿輸入方向
沿梯度下降方向
69. 在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化對模型訓(xùn)練有何影響?
影響收斂速度
減少計算量
控制學(xué)習(xí)率
增加模型復(fù)雜性
70. 神經(jīng)元的基本單元主體包括( )
(2) (3)
(3) (1)
(1) (2)
(1) (2) (3)
71. 激活函數(shù)的作用包括( )(1) 引入非線性(2) 增加了網(wǎng)絡(luò)的表達能力(3) 能在一定程度上解決梯度消失問題
(3)
(2)
(1) (2) (3)
(1)
72. 赫布學(xué)習(xí)規(guī)則表明( )
突觸強度不能變化
經(jīng)常出現(xiàn)的模式會對權(quán)值產(chǎn)生較大影響
神經(jīng)元不能學(xué)習(xí)
權(quán)值是固定不變的
73. 多層感知機(MLP)包含的層不包括( )
輸出層
卷積層
輸入層
隱藏層
74. 在設(shè)計BP神經(jīng)網(wǎng)絡(luò)時,需要考慮的方面不包括( )
網(wǎng)絡(luò)的學(xué)習(xí)率
網(wǎng)絡(luò)的層數(shù)
每層中的神經(jīng)元個數(shù)與激活函數(shù)
數(shù)據(jù)的來源
75. 針對分類問題,模型誤差可以用( )表示。
均方根誤差
平均絕對誤差
混淆矩陣
均方誤差
76. 真負類(True Negative, TN)是指( )
模型預(yù)測為負類,但實際為正類的樣本數(shù)量
模型預(yù)測為正類,實際也為正類的樣本數(shù)量
模型預(yù)測為正類,但實際為負類的樣本數(shù)量
模型預(yù)測為負類,實際也為負類的樣本數(shù)量
77. 激活函數(shù)可以比作( )(1)“決策者” ,當(dāng)神經(jīng)元接收到輸入信號時,激活函數(shù)就像決策者根據(jù)一定的規(guī)則來決定是否傳遞和如何傳遞這些信號。(2)“開關(guān)” ,決定了神經(jīng)元是否被激活以及激活的程度。(3)“水池的溢出口” ,當(dāng)水位超過一定的高度,水就會從溢出口溢出。在神經(jīng)網(wǎng)絡(luò)中,當(dāng)輸入信號的總和達到一定閾值,激活函數(shù)就會產(chǎn)生輸出。
(2)
(1)
(3)
(1)(2)(3)
78. 下列哪個不是常用的激活函數(shù)?
ReLU
Cosine
Sigmoid
Tanh
79. 下列哪個激活函數(shù)通常用于輸出層,以進行二分類問題?
Tanh
ReLU
Softmax
Sigmoid
80. 多層感知機不可以用于( )
文本分類
簡單的圖像識別
手寫數(shù)字識別
基于知識的推理
81. 神經(jīng)元的基本單元主體不包括( )
軸突
樹突
突觸
細胞體
82. 激活函數(shù)的作用不包括( )
能在一定程度上解決梯度消失問題
增加了網(wǎng)絡(luò)的表達能力
加權(quán)計算輸入和
引入非線性
83. 下列關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,錯誤的是( )
神經(jīng)網(wǎng)絡(luò)可以用于預(yù)測和分類任務(wù)
神經(jīng)網(wǎng)絡(luò)的層數(shù)越多,性能越好
神經(jīng)網(wǎng)絡(luò)可以自動從數(shù)據(jù)中學(xué)習(xí)特征
神經(jīng)網(wǎng)絡(luò)需要大量的數(shù)據(jù)進行訓(xùn)練
84. BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程中,前向計算的目的是( )
傳播誤差
調(diào)整權(quán)重
計算誤差
計算輸出值
85. 手寫數(shù)字識別通常使用( )
乳腺癌數(shù)據(jù)集
鳶尾花數(shù)據(jù)集
ImageNet
MNIST
86. 多層感知機的輸出層包含的神經(jīng)元數(shù)量和類型取決于( )
隱藏層神經(jīng)元的權(quán)值
隱藏層的神經(jīng)元數(shù)量
特定的任務(wù)
輸入層的神經(jīng)元數(shù)量
87. 在手寫數(shù)字識別中,圖像特征主要包括( )
顏色值
紋理特征
形狀特征
像素值
88. 下列哪種應(yīng)用場景中,神經(jīng)網(wǎng)絡(luò)可以發(fā)揮重要作用?(1)人臉識別(2)語音識別(3)智能推薦
(1)(2)(3)
(3)
(2)
(1)
第七部分 判斷題
89. 神經(jīng)網(wǎng)絡(luò)的輸出層總是包含一個節(jié)點。
對
錯
90. 在前饋神經(jīng)網(wǎng)絡(luò)中,信號可以在層內(nèi)循環(huán)傳播。
對
錯
91. 前饋神經(jīng)網(wǎng)絡(luò)中的每一層都需要激活函數(shù)。
對
錯
92. 人工神經(jīng)網(wǎng)絡(luò)是對人腦或生物神經(jīng)網(wǎng)絡(luò)若干基本特征的抽象和模擬。
對
錯
93. 激活函數(shù)通過非線性的方式?jīng)Q定每個神經(jīng)元的輸出是否應(yīng)該被激活,以模擬生物神經(jīng)元的工作原理。
對
錯
94. 假負類(False Negative, FN)是指模型預(yù)測為負類,但實際為正類的樣本數(shù)量。
對
錯
95. 梯度下降法中,每一步更新參數(shù)的方向是梯度的方向。
對
錯
96. 多層感知機能夠捕捉復(fù)雜的數(shù)據(jù)模式是因為包含多個隱藏層和具有非線性激活函數(shù)。
對
錯
97. 在設(shè)計或選取神經(jīng)網(wǎng)絡(luò)模型時,需要兼顧精確性和復(fù)雜度以及計算設(shè)備的性能。
對
錯
98. 激活函數(shù)引入非線性的目的是幫助神經(jīng)元學(xué)習(xí)各種復(fù)雜的數(shù)據(jù)模式。
對
錯
第八部分 單選題
99. 深度學(xué)習(xí)中的“深度”主要是指什么?
隱藏層的數(shù)量
輸入層的大小
輸出層的數(shù)量
數(shù)據(jù)的維度
100. 在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的主要功能是什么?
控制輸出層
提取局部特征
控制輸入層
提取全局特征
101. ImageNet數(shù)據(jù)庫的主要用途是什么?
增強圖像分辨率
處理時間序列數(shù)據(jù)
存儲視頻數(shù)據(jù)
訓(xùn)練深度學(xué)習(xí)模型
102. 在卷積神經(jīng)網(wǎng)絡(luò)中,池化層的使用會減少什么?
數(shù)據(jù)的噪聲
模型的復(fù)雜度
特征圖的數(shù)量
特征圖的分辨率
103. 在卷積神經(jīng)網(wǎng)絡(luò)中,池化層的主要作用是什么?
提取全局特征
增加特征圖的空間維度
提取局部特征
降低特征圖的空間維度
104. 卷積神經(jīng)網(wǎng)絡(luò)的主要優(yōu)點是什么?
增加特征工程的復(fù)雜性
減少數(shù)據(jù)量
增加模型復(fù)雜度
自動學(xué)習(xí)特征
105. 在CNN中,卷積操作的主要目標是什么?
進行全局特征檢測
增加數(shù)據(jù)維度
減少數(shù)據(jù)噪聲
檢測局部特征
106. LeNet是由誰開發(fā)的卷積神經(jīng)網(wǎng)絡(luò)?
Yann LeCun
Andrew Ng
Alex Krizhevsky
Geoffrey Hinton
107. 在計算機視覺中,卷積神經(jīng)網(wǎng)絡(luò)最常用于哪種任務(wù)?
自然語言處理
語音識別
圖像分類
時間序列分析
108. 在卷積神經(jīng)網(wǎng)絡(luò)中,增加卷積層的數(shù)量會產(chǎn)生什么影響?
減少特征復(fù)雜度
減少數(shù)據(jù)量
增加計算效率
增加特征復(fù)雜度
第九部分 判斷題
109. 在深度學(xué)習(xí)中,表示學(xué)習(xí)比傳統(tǒng)的手工特征提取方法更具有優(yōu)勢
對
錯
110. 深度學(xué)習(xí)的端到端學(xué)習(xí)指的是從輸入數(shù)據(jù)直接生成最終輸出的過程
對
錯
111. 表示學(xué)習(xí)的目標是自動從數(shù)據(jù)中學(xué)習(xí)出更好的表示形式
對
錯
112. ImageNet數(shù)據(jù)庫的建立為計算機視覺研究提供了大量的標注數(shù)據(jù)
對
錯
113. 在深度學(xué)習(xí)中,表示學(xué)習(xí)依賴于專家的知識和經(jīng)驗
對
錯
114. 深度學(xué)習(xí)模型在計算機視覺中的應(yīng)用之一是自動駕駛
對
錯
115. 卷積神經(jīng)網(wǎng)絡(luò)中的池化操作有助于減小模型的計算復(fù)雜度
對
錯
116. 深度學(xué)習(xí)模型的訓(xùn)練通常需要GPU等高性能計算設(shè)備的支持
對
錯
117. 在深度學(xué)習(xí)中,模型的“深度”可以通過增加層數(shù)和神經(jīng)元數(shù)量來提高
對
錯
118. 在深度學(xué)習(xí)領(lǐng)域,模型的訓(xùn)練是一個關(guān)鍵環(huán)節(jié)。由于深度學(xué)習(xí)大多數(shù)是無監(jiān)督學(xué)習(xí),所以不需要對大量數(shù)據(jù)進行標注。
對
錯
關(guān)閉
更多問卷
復(fù)制此問卷