«Введение в машинное обучение»

马上开始. 它是免费的哦
注册 使用您的电邮地址
«Введение в машинное обучение» 作者: Mind Map: «Введение в машинное обучение»

1. Coursera

2. Введение

2.1. Обозначения

2.1.1. X

2.1.1.1. объекты

2.1.2. Y

2.1.2.1. ответы

2.1.3. y:X \rigtharrow Y

2.1.3.1. target function

2.1.4. дано

2.1.4.1. {x_1,...,x_l}

2.1.4.1.1. выборка

2.1.4.1.2. training sample

2.1.4.2. y_i=y(x_i)

2.1.4.2.1. ответы

2.1.5. найти

2.1.5.1. a:X→Y

2.1.5.1.1. правило

2.1.5.1.2. decision funciton

2.1.5.1.3. (a)pproximate

2.2. Конкретизация

2.2.1. как задаются

2.2.1.1. X

2.2.2. какими могут быть

2.2.2.1. Y

2.2.3. как строить

2.2.3.1. a(x)

2.2.4. в каком смысле

2.2.4.1. a(x) приближает y(x)

2.3. Объекты

2.3.1. признаки

2.3.1.1. f_j:X→D_j, j=1...n

2.3.1.2. |D_j|

2.3.1.2.1. 2

2.3.1.2.2. < \infty

2.3.1.2.3. ℝ

2.3.1.3. feature data

2.3.1.3.1. f_ij=f_j(x_i)

2.3.1.3.2. «объекты-признаки»

2.3.1.3.3. представление

2.4. Ответы

2.4.1. Y

2.4.1.1. classifiaction

2.4.1.1.1. {-1,1}

2.4.1.1.2. {1,...,M}

2.4.1.1.3. {0,1}^M

2.4.1.2. ranking

2.4.1.2.1. finite

2.4.1.2.2. ordered

2.4.1.3. regression

2.4.1.3.1. ℝ^m

2.5. Predictive model

2.5.1. A={a(x) = g(x,\theta): \theta \in \Uptheta}

2.5.1.1. \theta

2.5.1.1.1. вектор

2.5.2. пример

2.5.2.1. линейная

2.5.2.1.1. \Uptheta = ℝ^n

2.5.2.1.2. задачи

2.5.2.1.3. гиперплоскость

2.5.3. конструирует

2.5.3.1. исследователь

2.5.4. этапы

2.5.4.1. train

2.5.4.1.1. X^l = (x_i, y_i)_{i=1}^{l}

2.5.4.1.2. \mu: X^{l}→A

2.5.4.2. test

2.5.4.2.1. application

2.6. Примеры

2.6.1. хрестоматийный

2.6.1.1. ирис

2.6.1.1.1. Фишер, 1936

2.6.1.1.2. классификация

2.6.2. регрессия

2.6.2.1. признаки

2.6.2.1.1. {x, x^2, 1}

2.6.2.1.2. {sin(x),x,1}

2.6.2.2. модель

2.6.2.2.1. линейная

2.6.2.3. вывод

2.6.2.3.1. признаки

2.7. Решение

2.7.1. этапы

2.7.1.1. признаки

2.7.1.1.1. выделение

2.7.1.2. модель

2.7.1.2.1. выбор

2.7.1.3. оптимизация

2.8. Оптимизация

2.8.1. loss function

2.8.1.1. L(a,x)

2.8.1.1.1. ошибка

2.8.1.2. задачи

2.8.1.2.1. classification

2.8.1.2.2. regression

2.8.2. empirical risk

2.8.2.1. Q(a,X^l) = frac{1}{l}\sum_{i=1}^{l}{L(a,x_i)}

2.8.2.2. качество

2.8.2.2.1. алгоритм

2.8.2.2.2. выборка

2.8.3. empirical risk minimization

2.8.3.1. \mu(a, X^l) = argmin_{a \in A}Q(a,X^l)

2.8.3.2. LSM

2.8.3.2.1. Y=ℝ

2.8.3.2.2. L квадратична

2.8.3.2.3. \mu(a,X^l) = argmin_{\theta}\sum_{i=1}^{l}{ (g(x_i, \theta) - y_i)^2 }

2.9. Generalization performance

2.9.1. проблема

2.9.1.1. переобучение

2.9.2. природа

2.9.2.1. закон

2.9.2.2. подгон

2.9.3. a(x)

2.9.3.1. approximate

2.9.3.1.1. y(x)

2.9.3.1.2. X

2.9.4. Q(a, X^k)

2.9.4.1. малО

3. Прикладные задачи

3.1. классификация

3.1.1. кредитный скоринг

3.1.1.1. объекты

3.1.1.1.1. заемщики

3.1.1.2. ответы

3.1.1.2.1. {bad, good}

3.1.1.3. особенности

3.1.1.3.1. классификация

3.1.2. медицинская диагностика

3.1.2.1. объекты

3.1.2.1.1. моментальные состояния пациентов

3.1.2.2. ответы

3.1.2.2.1. диагноз

3.1.2.3. особенности

3.1.2.3.1. дескриптивный алгоритм

3.1.3. прогноз ухода клинта

3.1.3.1. объекты

3.1.3.1.1. клиенты

3.1.3.2. ответы

3.1.3.2.1. {yes, no}

3.1.3.3. особенности

3.1.3.3.1. большой объем данных

3.1.4. классификация документов

3.1.4.1. объекты

3.1.4.1.1. документы

3.1.4.2. ответы

3.1.4.2.1. позиции в каталоге

3.1.4.3. особенности

3.1.4.3.1. неоднозначность ответа

3.2. регрессия