什么是KDD?
数据挖掘与知识发现
领域知识发现
文档知识发现
动态知识发现
机器感知研究如何用机器或计算机模拟, 延伸和扩展( ) 的感知或认知能力。
机器
机器人
计算机
人
衡量语音合成自然度的评价标准是MOS评分是( )分制
5
10
100
1
以下哪种卷积神经网络的设计引入了残差网络结构?
LeNet
AlexNet
GoogLeNet
ResNets
在对抗生成网络当中,带有标签的数据应该被放在哪里?
作为生成模型的输出值
作为判别模型的输入值
作为判别模型的输出值
作为生成模型的输入值
神将网络训练时, 常会遇到很多问题, 对于梯度消失问题, 我们可以通过选择使用以下哪种函数减轻该问题?
Relu函数
Sigmoid函数
tanh函数
Softsign函数
下列哪些包不是图像处理时常用的( )
time
sklearn
os
opencv
哪条命令可以检查 Atl as300(3000)加速卡是否在位?
lspci|grep'npu'
lspci|grep'd100'
lspcigrep'atlas'
atlasinfo
下列哪项网络不是常见的深度神经网络: ( )
HopField网络
BERT
ResNet
VGG
我们日常生活中的上下班, 指纹扫描打卡考勤、 虹膜扫描, 应用到了人工智能中的( )
机器翻译技术
机器翻译
虚拟现实
模式识别
在目标检测中, 以下能产生候选框的算法是 a) Sel ecti veSearchb) ROI pool ingc)Regionproposallayer
b)、c)
a)、b)
a)
a)、c)
考虑下面的频繁 3-项集的集合: {1 , 2, 3} , {1 , 2, 4} , {1 , 2, 5} , {1 ,3,4},{1,3,5}, {2, 3, 4} ,{2,3,5}, {3, 4, 5} 假定数据集中只有 5 个项,采用合并策略,由候选产生过程得到4-项集不包含( )
1,2,3,4
1,2,3,5
1,2,4,5
1,3,4,5
考虑某个具体问题时, 你可能只有少量数据来解决这个问题。 不过幸运的是你有一个类似问题已经预先训练好的神经网络。 可以用下面哪种方法来利用这个预先训练好的网络?
把除了最后一层外所有的层都冻结,重新训练最后一层
对新数据重新训练整个模型
只对最后几层进行调参(fi netune)
对每一层模型进行评估,选择其中的少数来用
人工智能的目的是让机器能够( )。
具有智能
和人一样工作
完全代替人的大脑
模拟、延伸和扩展人的智能
人类利用信息的历史,经历了( )次革命,媒介革命催生了数据大爆炸
六
四
三
五
下面有关序列模式挖掘算法的描述,错误的是?
priorill算法和 GSP 算法都属于priori类算法,都要产生大量的候选序列
FreeSpan算法和 Prefi xSpan算法不生成大量的候选序列以及不需要反复扫描原数据库
在时空的执行效率上, FreeSpan比PrefixSpan 更优
和AprioriAll相比, GSP 的执行效率比较高
下面算法中哪个不是回归算法( )
线性回归
逻辑回归
岭回归
随机森林
( )是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标 语言)的过程。
文本识别
文本分类
机器翻译
问答系统
以下关于神经网络的说法错误的是( )
随着神经网络隐藏层数的增加,模型的分类能力逐步减弱
单层感知器的局限在于不能解决异或问题
前馈神经网络可用有向无环图表示
前馈神经网络同一层的神经元之间不存在联系
关于反向传播,以下说法错误的是?
反向传播只能在前馈神经网络中运用
反向传播可以结合梯度下降算法更新网络权重
反向传播会经过激活函数
反向传播指的是误差通过网络反向传播
损失函数与模型函数是一回事。
GPU擅长计算密集和易于并行的程序。
tf.keras.datasets 可以查看keras中内置的数据集。
逻辑回归当中也可以加入正则项用于避免过拟合。
逻辑回归的损失函数是交叉熵损失函数。
以下属于TensorFlow2.0 的特性的是?
引入Keras接口
支持静态图机制
支持更多平台和更多语言
继续兼容Tensorflowl.x 的相关模块
下列哪种方法是灵活文本匹配的一部分?
字符串语音表示(Soundex)
语音发声散列(Metaphone)
编辑距离算法(EditDistance)
关键词哈希算法(KeywordHashing)
下列关于通用表格识别服务返回的type字段说法正确的是?
type代表文字识别区域类型
type为text时代表文本识别区域
type代表表格类型
type为table时代表表格识别区域
下列何者是聚类的应用( )
市场营销
人员配置优化
犯罪分析
社群网络分析
下列关于测试集,正确的是()。
不管数据大小,始终保持 30%作为测试集
测试集和验证集不能共存
在数据规模较小时,可以保留30%测试集
测试集不必占用数据集的 30%,能够保证对模型的考核即可