金融财经客服QQ;3898782815
SEO优化客服微信:mdyc919293
当前位置:网站首页 > SEO搜索引擎 > 搜狗词库 > 正文

vip会员查权重_会员专区查察 会员(会员查看)

作者:InsSeo 发布时间:2024-12-27 09:40 分类:搜狗词库 浏览:35


导读:  把一些相干的知识点总结一下。这个比长,感爱好的挑本身相干的那部分看。  都是一些底子知识,面相干岗位问到的比力多。  (答复时对算法要有肯定的见解,最...

  把一些相干 的知识点总结一下。这个比长,感爱好 的挑本身 相干 的那部分 看。

  都是一些底子 知识,面相干 岗位问到的比力 多。

  (答复 时对算法要有肯定 的见解 ,最好不要照书上的背)

  (一) 呆板 学习方面

  SVM

  1、 支持 平面---和支持向量相交的平面;;;分割平面---支持 平面中心 的平面(最优分类平面)

  2、 SVM不是界说 丧失 ,而是界说 支持向量之间的间隔 à目标 函数看PPT13~17页

  3、 正则化参数对支持向量数的影响

  LR

  1、 LR的情势 :h(x)=g(f(x));此中 x为原始数据;f(x)为线性/非线性回归得到的值,也叫判定 边界 ;g()为Sigmoid函数,终极 h(x)输出范围为(0,1)

  LR对样天职 布敏感。

  ***LR和淳厚 贝叶斯(NB)的区别?

  LR是loss最优化求出的,NB是统计跳过loss最优,直接得出权重

  NB比LR多了一个条件独立假设

  一个是鉴别 模子 (LR),一个是天生 模子 (NB)

  1、 鉴别 模子 和天生 模子 ???

  2、 呆板 学习中,LR和SVM有什么区别?à

  两者都可以处理 惩罚 非线性题目 ;LR和SVM最初都是针对二分类题目 的。

  SVM最大化隔断 平面、LR极大似然估计;SVM只能输出种别 ,不能给出分类概率

  两者loss function差别 ;LR的可表明 性更强;SVM自带有束缚 的正则化

  2、LR为什么用sigmoid函数,这个函数有什么长处 和缺点?为什么不消 其他函数?(sigmoid是伯努利分布的指数族情势 )

  Logistic Regression 只能用于二分类,而sigmoid对于全部 的输入,得到的输出靠近 0或1

  Sigmoid存在的题目 :梯度消散 、其输出不是关于原点中心 对称的(练习 数据不关于原点对称时,收敛速率 非常慢à输入中心 对称,得到的输出中心 对称时,收敛速率 会非常快)、盘算 耗时

  Tanh激活函数存在的题目 :梯 度消散 、盘算 耗时,但是其输出是中心 对称的

  ReLU:其输出不关于原点对称;反向传播 时,输着迷 经元小于0时,会有梯度消散 题目 ;当x=0时,该点梯度不存在(未界说 );

  ReLu失活(dead RELU)缘故起因 :权重初始化不当 、初始学习率设置的非常大

  Maxout:根据设置的k值,相应的增大了神经元的参数个数

  Xavier权重初始化方法:对每个神经元的输入开根号

  3、 SVM原题目 和对偶题目 关系?

  SVM对偶题目 的得到 方法:将原题目 的目标 函数L和束缚 条件构造拉格朗日函数,再对L中原参数和lambda、miu分别求导,而且 三种导数都便是 0;再将便是 0的三个导数带入原目标 函数中,即可得到 对偶题目 的目标 函数

  关系:原题目 的最大值相对于对偶题目 的最小值

  4、 KKT(Karysh-Kuhn-Tucker)条件有哪些,完备 形貌 ?

  KKT条件是思考 怎样 把束缚 优化转化为无束缚 优化à进而求束缚 条件的极值点

  下面两个思考 题的答案都是在必要 优化的目标 为凸函数(凸优化)的环境 下。

  题目 一:当一个优化题目 是凸优化题目 时,可以直接用KKT条件求解。

  5、 凸优化(可行域为束缚 条件构成 的地区 )

  5、 SVM的过程?Boost算法?

  6、 决定 树过拟合哪些方法,前后剪枝

  决定 树对练习 属性有很好的分类本领 ;但对位置的测试数据未必有好的分类本领 ,泛化本领 弱,即发生过拟合。

  防止过拟合的方法:剪枝(把一些相干 的属性归为一个大类,镌汰 决定 树的分叉);随机丛林

  7、 L1正则为什么可以把系数压缩成0,坐标回归的具体 实现细节?

  L1正则化可以实现希罕 (即截断),使练习 得到的权重为0;

  l1正则会产生希罕 解,即不相干 的的特性 对应的权重为0,就相称 于低落 了维度。但是l1的求解复杂度要高于l2,而且 l1更为盛行

  正则化就是对loss举行 处罚 (加了正则化项之后,使loss不大概 为0,lambda越大处罚 越大--lambda较小时,束缚 小,大概 仍存在过拟合;太大时,使loss值会合 于正则化的值上)

  正则化利用 方法:L1/L2/L1+L2

  8、 LR在特性 较多时可以举行 怎样的优化?--L1正则有特性 选择的作用

vip会员查权重_会员专区查看会员

  假如 是离线的话,L1正则可以有希罕 解,batch大点应该也有资助 ,在线的办理 思绪 有ftrl,rds,robots,尚有 阿里的mlr。固然 还可以用gbdt,fm,ffm做一些特性选择和组合应该也有结果 。

  9、 呆板 学习内里 的聚类和分类模子 有哪些?

  分类:LR、SVM、KNN、决定 树、RandomForest、GBDT

  回归:non-Linear regression、SVR(支持向量回归--可用线性或高斯核(RBF))、随机丛林

  聚类:Kmeans、条理 聚类、GMM(高斯肴杂 模子 )、谱聚类

  10、 聚类算法(可以作为监督 学习中希罕 特性 的处理 惩罚 ):Kmeans、条理 聚类、GMM(高斯肴杂 模子 )

  聚类算法唯一用到的信息是样本和样本之间的相似度。

  评判聚类结果 准则:高类间距,低类内距;高类内相似度,低类间相似度。

  相似度与间隔 负相干 。

  图像之间的间隔 的度量是对每个像素操纵 ,末了 得到 间隔

  Kmeans和GMM必要 订定 种别 K

  A、Kmeans算法:对于已有的未标记 的样本,同时给定结果 聚类的个数K;目标 是把比力 靠近 的样本归为一类,统共 得到k个cluster

  Kmeans中初始k个中心 点(Kmeans对中心 点的选取比力 敏感)的选取方法:a、随机选取k个初始的样本中心 点(b、直接选取k个样本点),然后盘算 每个样本到k个选定的样本中心 点的间隔 ;再比力 待聚类样本到初始样本点的间隔 ,将待聚类的样本指定为间隔 较近的各个种别 (离哪个近,就归为哪一类);末了 重新盘算 聚类中心 :;重复迭代。

  Kmeans收敛状态:

  (1)聚类中心 不再变革 (2)每个样本到对应聚类中心 的间隔 之和不再有很大的变革

  丧失 函数àloss function背面 的||xn-uk||^2表现 采取 欧式间隔 作为间隔 度量:

  Kmeans可以用于图像分割;

  Kmeans的缺点:对初始样本点的选取敏感;对非常 点(如:一个阔别 大多数点的孤立的点)的免疫不好 ;对团状数据点结果 较好,对带状结果 不好 ;

  Kmeans与Kmeans++初始化的区别:Kmeans初始样本点的选取是随机选取的;Kmeans++是选取最远的k个点作为初始样本点

  A、 条理 聚类

  有两种条理 聚类--)bottom-up(从多个类聚成一个类--每次都是归并 最相似的两个类)、up-bottom(一个类到多个类--每次都剔除最不相似的类);条理 间隔 是一种树状布局

  Kmeans与条理 聚类对比:

  C、高斯肴杂 模子 à由单高斯模子 线性加权组合

  初始参数:样本点属于各个高斯函数的概率,以及每个高斯函数的均值和方差(参数都是随机给定)

  GMM求解过程àEM算法求解

  E-step(由已知的均值和方差估算在该参数下的样本点的分布)和M-step(由样本点的分布再求均值和方差)是EM算法。

  à这和EM求解的过程一样

  Kmeans是硬聚类(每个样本只能属于某一类);而GMM对于每个样本点,都有属于每个类的概率。

  GMM上风 :多个分布的组合、速率 快(EM算法求解)、最大数据似然概率

  GMM劣势:对初始化值敏感,轻易 陷入局部最优、需指定k个高斯分布;对非凸分布数据集结果 不好 。

  11、 kmeans的分类过程,用kmeans的数据有什么样的分布(高斯分布),loss函数是啥?

  见题目 “9”

  12、 逻辑斯特回归和线性回归的丧失 函数?

  13、 正则化为什么能防止过拟合?(https://www.zhihu.com/question/20700829)

  过拟合表现 在练习 数据上的偏差 非常小,而在测试数据上偏差 反而增大。其缘故起因 一样平常 是模子 过于复杂,太过 得去拟合数据的噪声. 正则化则是对模子 参数添加先验,使得模子 复杂度较小,对于噪声的输入扰动相对较小。

正则化时,相称 于是给模子 参数w 添加了一个协方差为1/lambda 的零均值高斯分布先验。对于lambda =0,也就是不添加正则化束缚 ,则相称 于参数的高斯先验分布有着无穷大的协方差,那么这个先验束缚 则会非常弱,模子 为了拟合全部 的练习 数据,w可以变得恣意 大不稳固 。lambda越大,表明先验的高斯协方差越小,模子 约稳固 ,相对的variance(方差)也越小。

  10、关键词

  1、练习 集测试集验证集分别 方式

  https://www.zhihu.com/question/26588665/answer/33490049

  2、TPR(Recall)、FPR、ROC 、AUC(与正确 率和召回率有关)

  https://blog.csdn.net/feiyang2010jin/article/details/50547365

  3、坐标轴降落 法-用来办理 loss function对参数不可导时(此时梯度降落 算法不再有效 ),求取参数更新量的方法

  坐标轴降落 法和梯度降落 法具有同样的头脑 ,都是沿着某个方向不绝 迭代,但是梯度降落 法是沿着当前点的负梯度方向举行 参数更新,而坐标轴降落 法是沿着坐标轴的方向。

  https://blog.csdn.net/ymmxz/article/details/69396222

  lasso(Least absolute shrinkage and selection operator)

  坐标轴降落 法和最小角回归法(https://blog.csdn.net/bbbeoy/article/details/72523540)都是求解Lasso回归的方法。

  4、批量梯度降落 算法BGD,小批量梯度降落 法MBGD,随机梯度降落 算法SGD的比力

  https://blog.csdn.net/yMMxz/article/details/69371926

  5、学习率褪火 (衰减)--没学习多少次都会将学习率镌汰 (lr/decay_rate)

  6、多分类题目 转二分类方法--组合多个二分类器来实现多分类器,方法如下:

  a.一对多法(one-versus-rest,简称OVR SVMs)。练习 时依次把某个种别 的样本归为一类,其他剩余的样本归为另一类,如许 k个种别 的样本就构造出了k个SVM。分类时将未知样天职 类为具有最大分类函数值的那类。

  b.一对一法(one-versus-one,简称OVO SVMs大概 pairwise)。其做法是在恣意 两类样本之间计划 一个SVM,因此k个种别 的样本就必要 计划 k(k-1)/2个SVM。当对一个未知样本举行 分类时,末了 得 票最多的种别 即为该未知样本的种别 。

  c.条理 支持向量机(H-SVMs)。条理 分类法起首 将全部 种别 分成两个子类,再将子类进一步分别 成两个次级子类,云云 循环,直到得到一个单独的种别 为止。

  阐明 :LR的多分类也可以用上面的方法。

  https://blog.sina.com.cn/s/blog_4af0fab001010ybp.html

vip会员查权重_会员专区查看会员

  https://blog.sina.com.cn/s/blog_4c98b96001009b8d.html

  1、 跳出局部极小值方法

  --优化方法,如momentum updata、Adam等;调解 学习率

  4、明显 性查验

  5、线性回归、广义线性回归

  7、最小二乘偏差 及其概率表明

  9、LDA(二类、多类)

  11、种别 不均衡 办理 方法:欠采样、过采样、阈值移动

  12、模子 融合方法:bagging、随机丛林 、ADABOOST、 Gradient Boosting Tree

  前面两种是综合多个模子 的结果 ;背面 两个是重复练习

  Bagging--模子 融合(随机丛林 也属于模子 融合);有两种方法(bagging对淳厚 贝叶斯没什么用,由于 NB太稳固 ,提拔 不大)

  ADABOOST(boosting一类的算法)的步调 --重复迭代和练习 ;每次分配给错的样本更高的权重;最简单 的分类器(如:线性分类器的二分类)叠加

  ADABOOST分类过程具体 表明 如下:先用一个简单 的分类器将样天职 成两类;为分错的样天职 配更高的权重(初始权重设为1/N即可,N为样本数);重复前次 两个过程(再次分类,并为错误的样本设置更高的权重);末了 将全部 样本数据精确 分类后,将各个分类器叠加。

  Gradient Boosting Tree:和Adaboost的思绪 雷同 ,办理 回归题目 。

  14、 决定 树、随机丛林 、GBDT、XGBOOST

  A、决定 树(有监督 学习):

  创建 决定 树的关键,即在当前状态下选择哪个属性作为分类依据。根据差别 的目标 函数,创建 决定 树重要 有一下三种方法:ID3、C4.5、CART

  B、Bootstraping:不必要 外界资助 ,仅依靠 自身力气 让本身 变得更好。

  C、随机丛林 (bagging+决定 树):

  Bootstrap采样:有放回的重复抽样

  D、Adaboost:

  教程第11节 决定 树随机丛林 ……pdf –p37

  E、 GBDT—梯度降落 决定 树(有监督 学习)

  15、 熵 信息增益(ID3算法)、信息增益率(C4.5算法)、基尼系数(CART)

  教程第11节 决定 树随机丛林 ……pdf -p10

  16、 投票机制

  1)一票否决(同等 表决)、2)少数服从多数、3)有效 多数(加权)

  16、数值优化理论:梯度降落 、牛顿、共轭梯度

  牛顿法(dk为更新量)--引入了二阶偏导(Hessian矩阵)--求解无束缚 优化(迭代的初始值一样平常 是随机选取的)

  缺点:不能包管 Hessian矩阵(二阶偏导构成 的矩阵)肯定 可逆

  17、SVM、SVR、软隔断 SVM、SMO

  18、SVM核函数

  核函数重要 是将线性不可分的数据映射到高位空间再举行 分类

  核函数的种类:

  高斯核是用的最多的核函数à对练习 数据分类结果 最好

  高斯核的缺点:轻易 过拟合,必要 更多的样本、泛化本领 弱

  19、间隔 方法:闵科夫斯基 、VDM、马氏间隔

  20、K-means、KNN、LVQ、DBSCAN、谱聚类

  21、降维方法:LDA、PCA、SVD

  22、特性 选择方法:总体分为过滤型、包裹型、嵌入型(à基于模子 的;如:正则化)

  Relief、LVW、正则化(L1/L2)

  特性 选择的缘故起因 :特性 存在冗余(特性 相干 度太高)、掺杂了噪声(特性 对猜测 结果 有负影响)

  L1正则化是截断效应(实现希罕 ,把不相干 的特性 的系数变成 0);L2正则化是缩放效应,使末了 得到的参数很小

  25、交错 熵?KL散度(也叫KL间隔 )?

  25、最大熵模子 、EM(Expectation Maximization)算法

  最大熵模子 的求解可以转化为对偶题目 的极大化;

  26、特性 --数据中抽取出来的对结果 猜测 有效 的信息

  特性 工程--利用 专业配景 知识和本领 处理 惩罚 数据,使得特性 能在呆板 学习算法上发挥很好的作用的过程。

  27、交错 验证

  K折交错 验证(K-flod cross validation)

  https://www.cnblogs.com/boat-lee/p/5503036.html

  将练习 集分成K份;依次将第i(i=k,…,1)折作为交错 验证集,别的 k-1折(除第i折外)作为测试集;统共 举行 k次,每举行 完一次练习 ,都用test data去测试,得到k个正确 率;末了 取k个正确 率的均值作为末了 结果 。

  28、过拟合和欠拟合

  欠拟合(under fitting):参数过少,不敷 以表达数据的特性

  过拟合(over fitting):参数过多,过渡拟合数据,泛化本领 差(练习 时的正确 率很好,但测试的时间 就很差)

  欠拟合办理 方法:找更多的特性 ;减小正则化系数

  (二)深度学习方面

  1、MLP的BP过程?delta的意义?每一层节点的残差?

  2、max pool层怎么做的?

  3、caffe架构?caffe怎样 构建网络?

  4、去卷积过程(转置卷积)?https://blog.csdn.net/fate_fjh/article/details/52882134

  5、单个神经元是否线性可分(模式辨认 的概念,是否能用用线性函数将样天职 类)?

  是否线性可分是对于样本集的;线性可分是数据聚集 的性子 ,和分类器没啥关系。

  可以通过线性函数分类的即为线性可分

  6、深度学习模子 的发展?深度学习的评价标准 ?

  7、强化学习应用场景和方法?adaboost和cascade adaboost?丧失 函数有哪些?分类回归聚类的区别与接洽 ?目标 检测的三种方法?

  8、目标 检测常用的网络,RCNN, SPP, Fast RCNN, Faster RCNN的区别?

  9、随机梯度降落 ,标准 梯度?softmax公式?信息熵公式?

  10、SVM和softmax的区别?

  Svm具有附加稳固 性,当样例满意 边界 条件时,该样例不会影响丧失 函数;而softmax将思量 全部 的样例

  11、练习 时,mini-batch与GPU的内存匹配--练习 网络时的mini batch是由GPU的内存决定的。

  12、正则化:正则化表现 的是对高维度W的处罚 力度,当正则化系数(lambda)很大时,使w变的非常小,终极 的结果 是函数变得非常平滑。正则化系数(lambda)越小,拟合程度 越高,结果 越好。

  13、batch normalization中gamma和beta初始化为1和0,然后在练习 中优化他们

  BN可以镌汰 dropout(可以不要dropout)

  14、当练习 到末了 ,loss值很大,但精度在上升?--阐明 loss变革 很小,必要 增大学习率

  梯度爆炸(loss发散,出现nan)--学习率很大,必要 减小学习率

  15、假如 loss开始不停 稳固 ,但是从某点开始降落 的缘故起因 à由于 初始值选定的不好 ,错误的初始值会让梯度一开始靠近 0。

  16、优化战略 的比力 :

  https://www.cnblogs.com/denny402/p/5074212.html

  SGD--Momentum updata--Nesterov Momentum updata--AdaGrad update-- RMSProp update--Adam update

  以上都是一阶优化方法,对于二阶优化方法(BFGS和L-BFGS),二阶优化方法不必要 学习率这个参数,可以直接对目标 举行 优化。

  SGD:根据梯度直接更新w

  Momentum updata:不是通过盘算 得到的梯度直接更新w,而是增长 一个变量V(界说 为速率 ),改变了和梯度直接相干 ,再用V更新w

  Nesterov Momentum updata:更新方式

  AdaGrad update:每个参数自顺应 学习速率的方法(由于 参数空间的每一维都有本身 的学习速率,它会根据梯度的规模的巨细 动态变革 )

  长时间练习 时,AdaGrad算法会发生什么?--根据更新公式,不绝 有正数加到cache中,更新步长会渐渐 衰减到0,末了 完全克制 学习。

  1e-7:平滑因子,防止除数变成 0

  RMSProp update:办理 了AdaGrad中会克制 更新的题目

  Adam update:

  adagrad记录 的是梯度的二阶矩,并按指数和情势 表现

  Momentum的作用:稳固 梯度的方向

  17、模子 集成

  先单独练习 多个差别 的模子 ;在练习 时,将每个模子 的结果 取均匀 值即可。--可提拔 精度

  缺点是必须单独练习 差别 的模子

  18、Cross entropy loss 和sigmod Cross entropy loss的区别?

  https://blog.csdn.net/u012235274/article/details/51361290

  看博文里写的就没啥区别

  SmoothL1Loss

  上风 :smoothL1Loss在靠近 0的时间 ,看起来像二次函数

  SoftMaxWithLoss

  19、没有隐蔽 层的神经网络是线性的,只能处理 惩罚 线性可分的题目 (线性可分题目 从二维角度看,即分边界 是一条直线,多维就是存在线性超平面将其分类)。

  20、卷积神经网络中,在没有zero-padding的环境 下,当输入为7*7,filter为3*3,stride为3是,这里的stride是不答应 如许 设置的,由于 如许 的话输出就是2.333*2.333(不是整数),以是 zero-padding克制 了这种环境 的发生

  Zero-padding的另一种作者用,就是克制 图像在卷积神经网络中向前传播 时,图像提取出来的特性 越来越小,zero-padding可以包管 图像的尺寸。

  21、定位和检测的区别:

  区别在于要找的目标 的数量 ;

  对于定位,图像中只有一个或一种对象,用框标出对象的位置

  对于检测,图像中有多个目标 或多种对象。

  23、数据不敷 时:

  数据加强 、transfer learning(fine-tuning:根据数据集的巨细 ,练习 网络的末了 一层大概 末了 几层)、修改网络

  Fine-tuning:固定网络,即为学习率为0、必要 练习 的层的学习率比力 高(原来练习 好的网络的学习率的非常 之一)、当预练习 的层(中心 层)必要 改变时,学习率很小(如原学习率的一百分之一)

  24、goolenet和resnet中用到的布局 (瓶颈布局 bottlenecks:输入输出雷同 )

  1x1的卷积层相称 于全毗连 层--遍历全部 像素

  3x3的卷积可以更换 成1x3和3x1的不对称卷积(inception v3)--镌汰 参数

  25、CNN中 卷积的实现

  傅里叶变更 可以用于大卷积核的运算

  im2col(重要 的):

  caffe和torch不支持利用 16位盘算 。

  26、WindowDataLayer(窗口数据),用于检测,可以读取hdf5数据。

  27、Caffe中的交错 验证?

  界说 两个prototxt文件(练习 阶段和测试阶段),train_val.prototxt和deploy.prototxt;后者用于测试会合 ,测试阶段的train_val.prototxt用于验证。

  28、其他框架?

  Torch--C和Lua语言写的,Torch中重要 的是Tensors类

  TensorFlow--pip安装,TensorBoard为可视化工具 ,支持多GPU,支持分布式练习 (多机),支持RNN

  Theano、MxNet、

  29、语义分割(Semantic Segmentation)和实例分割(Instance Segmentation)

  语义分割--操纵 像素,标记 每个像素所属的标签à不关心具体 的类,同一类目标 标记 为雷同 的像素

  实例分割à 输出种别 同时标记 像素(同时检测并分割)--关心目标 的类,差别 目标 标记 为差别 的像素(同一类中的目标 也标记 为差别 的像素)

  分割时利用 全卷积网络(以filter为1*1的卷积层更换 fc层,操纵 每个像素)可以得到全部 像素的标签,而不消 先将图像分成很多 小块,再通过卷积为块 的中心 像素分类(如许 就很耗时)

  30、反卷积(卷积转置)

  31、Spatial Transformer Networks(空间变更 网络)

  32、无监督 学习

  聚类等、PCA(线性的)

  主动 编码器(Auto encoder)、Generative Adversarial Networks(GAN)

  (三)图像方面

  1、opencv遍历像素的方式?

  2、LBP原理?

  3、HOG特性 盘算 过程,尚有 先容 一个应用HOG特性 的应用?

4、opencv内里 mat有哪些构造函数?

5、怎样 将buffer范例 转化为mat范例 ?

6、opencv怎样 读取png格式的图片?(我貌似记得opencv不能读取png格式的图片,好像 每种格式图片的表头不一样,必要 转化,给他说了半天他,他也没明白 )

7、opencv怎样 读取内存图片?

8、opencv内里 有哪些库?

9、用过opencv内里 哪些函数?(我顺带答复 了一下canny,HR又问opencv内里 有c-a-n-n-y有这几个字母的函数吗,尴尬。。。又问我怎样 本身 写canny边沿 检测算法)

10、opencv内里 为啥是bgr存储图片而不是人们常听的rgb?

12、你说opencv内里 的HOG+SVM结果 很差?他就直接来了句为啥很差?差了就不改了?差了就要换其他方法?、

13、讲讲HOG特性 ?他在dpm内里 怎么计划 的,你改过吗?HOG能检测边沿 吗?内里 的核函数是啥?那hog检测边沿 和canny有啥区别?

13、怎样 求一张图片的均值?(思量 了溢出和分块求解,貌似不满意 。。。转头 看看积分图内里 怎样 办理 溢出的。)

14、怎样 写程序将图像放大缩小?(我答复 的插值,不太对。。。比如 放大两倍可以插值,那放大1.1倍呢,)--放大1.1倍也可以插值

15、怎样 遍历一遍求一张图片的方差?(答复 的是采取 积分图,并让我推导如许 为啥可行。这个题目 从前 帮同砚 办理 过。。。)

  (四)编程方面(C++/Python)

  1、 全分列

  2、 矩阵求最长连续 递增的路径长度?à

  329. Longest Increasing Path in a Matrix https://leetcode.com/problems/longest-increasing-path-in-a-matrix/discuss/

3、vector和list的区别?

4、c内里 有哪些内存申请方法?

5、虚函数和纯虚函数的区别?

6、重载、覆盖、重写的区别?

7、用过C++11吗?用过内里 的哪些?

8、有哪些范例 转换函数?以及用在哪些场景?

9、用过GCC吗?会linux吗?

10、堆和栈的区别?

11、Python中界说 类的私有变量?在变量前面加双下划线“__”,如:__x,则为私有变量

  11、请形貌 指针数组和数组指针的区别

  指针数组:array of pointers,即用于存储指针的数组,也就是数组元素都是指针

  数组指针:a pointer to an array,即指向数组的指针

  还要留意 的是他们用法的区别,下面举例阐明 。

  int* a[4] 指针数组

  表现 :数组a中的元素都为int型指针

  元素表现 :*a[i] *(a[i])是一样的,由于 []优先级高于*

  int (*a)[4] 数组指针

  表现 :指向数组a的指针 元素表现 :(*a)[i]

(五)开放性题目

  1、末了 问口试 官的题目

  (1)我以后的口试 要留意 哪些题目 ,提点发起 ?或为了更好地胜任这个岗位,我还必要 增补 哪些技能? 入职后是否有产物 培训和技能培训?

  (2)当感觉还可以时,就问公司培训制度,提拔 机制,以及本身 来了应该做什么,当感觉没戏时,就问,你给我一些关于职业的发起 吧,以及怎么提拔 本身

  3、 HR口试 (本身 总结的)

  (1) 盼望 薪资

  (2) 你抱负 的工作是什么样的?

  (3) 关于你以后的工作筹划 ,你有什么想法?

  (4) 职业规划

  (5) 做项目时碰到 的困难及办理 方法?

  (6)做科研辛劳 吗?

  (6) 对公司的见解 ?为什么应聘我们公司?

  (7) 你在同龄人中处于什么档次 和大牛的差距在哪?

  (8) 你跟同龄人相比有什么上风 ?

  (9) 你除了我们公司,还投了哪些公司?

  说几个

  (10) BAT之外,你最最想去的是哪家公司,为什么?

  (11) 假如 我们给你发offer,你还会继承 秋招么?

  (12) 【跨专业】本科+研究生在本专业学了多年,为什么没在本行业求职?

  (13) 【家离企业地点 地较远】为什么想来xx地方工作,父母支持么?

  (14) 【对象】假如 对象和你在意向工作地发生分歧,你怎么处理 惩罚 ?

  (15) 优缺点?

  (16) 先容 你一次最失败的一次履历 ?

  (17) 先容 你一次最乐成 的一次履历 ?

  (18) 这份工作你有想过谋面 对哪些困难吗?

  (19) 假如 你发现上司做错了,你将怎么办?

  (19)你以为 大门生 存 使你劳绩 了什么?

  (20)你对加班的见解 ?

  (21)当公司给出的报酬 偏低不敷 以吸引到良好 人才的时间 ,你该怎么去雇用 ?

  这些知识点都是我本身 总结的,包罗 HR面的题目 。

  轻 松 一 刻

标签:


关键词蜘蛛池

搜狗词库排行
标签列表
今日阅读排行榜
昨日阅读排行榜
本周阅读排行榜
本月阅读排行榜
今年阅读排行榜
总阅读排行榜
刷新不变随机列表

标签词分析
53条


关灯