赵娜0418

金融领域中信用风险的主体一般是什么?

金融领域中信用风险的主体一般是什么? 信⽤风险发生的主体通常为:个人、公司及主权。 1、个人违约 个人向金融机构进行借贷后,没有在规定期限内还款的行为。 2、公司违约 公司向金融机构借贷后,没有在规定期限内还款的行为,或者公司在发行债券等融资产品后,没有履行或者延期履行利息或本金的支付义务。 3、主权违约 是指一国政府无法按时对其向外担保借来的债务还本付息的情况,如债务重组。

赵娜0418

2020-02-25

0.2698 1 1
  • 关注作者
  • 收藏

巴塞尔资本协定中的变量应用在什么地方?怎么计算?

巴塞尔资本协定中的变量应用在什么地方?怎么计算? 答:主要可应⽤于主权、银⾏和公司⻛险暴露时, 计算方法是:违约概率:Probability of default,PD。即特定时间段内借款⼈违约的可能性。 违约损失率:Loss given default,LGD。即违约发⽣时风险暴露的损失程度。 违约风险暴露:Exposure at default,EAD。即对某项贷款承诺⽽言,发⽣生违约时可能被

赵娜0418

2020-02-24

0.2698 1 3
  • 关注作者
  • 收藏

KNN算法中K值如何选择?

如果k较小,就相当于用较小的邻域中的训练实例进行预测,“学习”的近似误差会减小,只有输入实例较近的(相似的)训练实例才会对预测结果起作用。但缺点是“学习”的估计误差会变大,预测结果会对近邻的实例点非常敏感。如果邻近的实例点恰好是噪声,预测会出错。k值的减小就意味着整体模型变得复杂,容易发生过拟合。 如果k值太大,相当于用较大的邻域中的训练实例进行预测。其优点是可以减少学习的估计误差,但缺点是学

赵娜0418

2020-02-22

37.7698 2 3
  • 关注作者
  • 收藏

什么是决策树?

决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个很好的分类的过程。这一过程对应着对特征空间的划分,也对应着决策树的构建。开始,构建根节点,将所有训练数据都放在根节点。选择一个最优特征,按照这一特征将训练数据集分割成子集,使得各个子集有一个在当前条件下最好的分类。如果这些子集已经能够被基本正确分类,那么构建叶结点,并将这些子集分到所对应的叶结点中

赵娜0418

2020-02-22

38.4769 3 2
  • 关注作者
  • 收藏

什么是决策树的剪枝?

剪枝:从已生成的树上裁掉一些子树或叶结点,并将其根节点或父结点作为新的叶结点,从而简化分类树模型。 剪枝就是当阿尔法确定时,选择损失函数最小的模型,即损失函数最小的子树。当阿尔法确定时,子树越大,往往与训练数据的拟合越好,但是模型的复杂度就越高,相反,子树越小,模型复杂度就越低,但是往往与训练数据的拟合不好,损失函数正好表示了对两者的平衡

赵娜0418

2020-02-22

0.8933 2 3
  • 关注作者
  • 收藏

决策树为什么要进行剪枝?

决策树生成算法递归地产生决策树,知道不能继续下去为止。这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象。过拟合的原因在于学习时过多地考虑如何提高对训练数据的正确分类,从而构建出过于复杂的决策树。解决这个问题的方法是考虑决策树的复杂度,对已生成的决策树进行简化。

赵娜0418

2020-02-22

0.8933 2 5
  • 关注作者
  • 收藏

什么是特征选择?

特征选择在于选取对训练数据具有分类能力的特征。这样可以提高决策树学习的效率。如果利用一个特征进行分类的结果与随机分类的结果没有很大的差别,则称这个特征空间是没有分类能力的。经验上扔掉这样的特征对决策树学习的精度影响不大。通常特征选择的准则是信息增益或信息增益比。

赵娜0418

2020-02-22

3.7755 3 2
  • 关注作者
  • 收藏

四分位差是什么?

上下四分位数之差 用于衡量中位数的代表性 不受极端值影响 反映了中间50%的数据的离散程度 也称为内距或四分内距 对顺序数据离散程度的测度

赵娜0418

2020-02-22

0.8933 2 1
  • 关注作者
  • 收藏

平均差的性质及公式

数学性质较差,实际中应用较少 能反应一组数据离散程度 各变量与其平均数离差绝对值的平均数

赵娜0418

2020-02-22

0.8933 2 3
  • 关注作者
  • 收藏

自由度有哪些性质

自由度 1、按着这一逻辑,如果对n个观测值附加的约束个 数为k个,自由度则为n-k, 2、当样本数据的个数为n时,若样本平均数确定后 ,则附加给n个观测值的约束个数就是1个,因 此只有n-1个数据可以自由取值,其中必有一个 数据不能自由取值 3、从字面涵义来看,自由度是指一组数据中可以 自由取值的个数, 4、自由度是指数据个数与附加给独立的观测值的约束或限制的个数之差

赵娜0418

2020-02-22

0.8680 2 1
  • 关注作者
  • 收藏

怎样解释切比雪夫不等式

切比雪夫不等式 • 对于k=2,3,4,该不等式的含义是 1. 至少有75%的数据落在平均数加减2个标准 差的范围之内 2. 至少有89%的数据落在平均数加减3个标准 差的范围之内 3. 至少有94%的数据落在平均数加减4个标准 差的范围之内 对于任意分布形态的数据,根据切比雪夫不 等式,至少有1-1/k方的数据落在平均数加减k 个标准差之内。其中k是大于1的任意值,但 不一定是整数

赵娜0418

2020-02-22

0.7194 2 1
  • 关注作者
  • 收藏

概率都有什么性质?

概率 ①由于事件的频数总是小于或等于试验的次数,所以频率在0~1之间,从而任何事件的概率在0~1之间,即 0≤P(A)≤1. ②每次试验中,必然事件一定发生,因此它的频率为1,从而必然事件的概率为1,如,在掷骰子试验中,由于出现的点数最大是6,因此P(E)=1 ③每次试验中,不可能事件一定不出现,因此他的频率为0,从而不可能事件的概率为0.如,在掷骰子试验中,P(F)=0 ④当事件A与B

赵娜0418

2020-02-22

0.7194 2 0
  • 关注作者
  • 收藏

什么是事件的独立性?

事件的独立性 答:一个事件的发生与否并不影响另一个事件发生的概率,则称两个事件独立 若事件A与B独立,则P(B|A)=P(B), P(A|B)=P(A) 乘法公式可简化为 :P(AB)=P(A)·P(B)

赵娜0418

2020-02-22

1.2364 2 2
  • 关注作者
  • 收藏

全概率相关题目

某PC产品由甲、乙、丙三个供应商供货,供应商的次品率分别为4%、3%、2%,它们各自的供货分别占总产量的25%、35%、40%,将它们的产品组合在一起,求任取一个是次品的概率。 解:设 A 1 表示“产品来自甲供应商”, A 2 表示“产品来自乙供应商”, A 3表示“产品来自丙供应商”, B表示“取到次品”。根据全概率公式有

赵娜0418

2020-02-22

1.2364 2 0
  • 关注作者
  • 收藏

最近邻算法有没有学习过程

最近邻算法有没有学习过程? 答:没有的。所以这个算法称为消极学习方法,而之前的那些算法称为积极学习方法。

赵娜0418

2020-02-22

0.7194 2 2
  • 关注作者
  • 收藏

在计算(1-2)时假设出现某项是零了怎么办?

在计算(1-2)时假设出现某项是零了怎么办? 答:有两种方法:(1)拉普拉斯校准或拉普拉斯估计法。假定训练数据库D很大,使得需要的每个技术加1造成的估计概率的变化可以忽略不计,但可以方便的避免概率值为零的情况。(如果对q个计数都加上1,则我们必须在用于计算概率的对应分母上加上q)。(2)条件概率的m估计。P(Xi | Yi) = (nc mp) / (n m)其中,n是类yi中的实例总数

赵娜0418

2020-02-22

0.7194 2 2
  • 关注作者
  • 收藏

决策树分类问题

预测集中的每条记录的属性取值集合是否就和训练集的某一个记录的属性取值集合相等? 答:不一定,一般来说是不可能的。但是建立的决策树一定包含该取值集合(但是可能范围会大些)。因为决策树建过程是只要当前的所有对象属于同一个标号就不再继续选择属性了,所以,实际上建立的决策树所包含的对象是比训练集中的对象要多得多的,这些多余的对象可能就包含当前的预测对象。这也是决策树能够用来进行分类的原因。

赵娜0418

2020-02-22

0.7194 2 4
  • 关注作者
  • 收藏

决策树中出现过分你和应该怎么处理?

决策树中出现过分你和应该怎么处理? 答: A):先剪枝(提前终止规则):当观察到的不纯性度量的增益(或估计的泛化误差的改进)低于某个确定的阈值时就停止扩展叶节点。B):初始决策树按照最大规模生长,然后进行剪枝的步骤,按照自底向上的方式修剪完全增长的决策树。修剪有两种方法:(1)用新的叶节点替换子树,该叶节点的类标号由子树下记录中的多数类确定;(2)用子树中常见的分支替代子树。当模型不能再改进时终止

赵娜0418

2020-02-22

0.7194 2 2
  • 关注作者
  • 收藏

泛化误差的估计有哪些?

泛化误差的估计有哪些? 答:(1)乐观估计(决策树归纳算法简单的选择产生最低训练误差的模型作为最终的模型)(2)悲观误差估计(使用训练误差与模型复杂度罚项的和计算泛化误差)(3)最小描述长度原则(模型编码的开销加上误分类记录编码的开销)(4)估计统计上界(泛化误差可以用训练误差的统计修正来估计,因为泛化误差倾向于比训练误差大,所以统计修正通常是计算训练误差的上界)(4)使用确认集(如2/3的训练集

赵娜0418

2020-02-22

0.7194 2 0
  • 关注作者
  • 收藏

造成过拟合的原因是什么?

造成过拟合的原因是什么? 答:造成原因有:(1)噪声造成的过分拟合(因为它拟合了误标记的训练记录,导致了对检验集中记录的误分类);(2)根据少量训练记录做出分类决策的模型也容易受过分拟合的影响。(由于训练数据缺乏具有代表性的样本,在没有多少训练记录的情况下,学习算法仍然继续细化模型就会产生这样的模型,当决策树的叶节点没有足够的代表性样本时,很可能做出错误的预测)(3)多重比较也可能会导致过分拟合(

赵娜0418

2020-02-22

0.8933 2 3
  • 关注作者
  • 收藏
<146474850>