ru
Books
Шолле Ф.

Глубокое обучение на Python

  • Kirill Kruglikovhas quoted4 years ago
    Этот вопрос открыл двери в новую парадигму программирования. В классическом программировании, в парадигме символического ИИ, люди вводят правила (программу) и данные для обработки в соответствии с этими правилами и получают ответы (рис. 1.2). В машинном обучении люди вводят данные и ответы, соответствующие этим данным, а на выходе получают правила. Эти правила затем можно применить к новым данным для получения оригинальных ответов.
  • Андрейhas quoted6 years ago
    Вообще говоря, чем меньше обучающих данных, тем скорее наступит переобучение, а использование маленькой сети — один из способов борьбы с ним.
  • Андрейhas quoted6 years ago
    С целочисленными метками следует использовать функцию sparse_categorical_crossentropy:
    model.compile(optimizer='rmsprop',
    loss='sparse_categorical_crossentropy',
    metrics=['acc'])
  • kostalginhas quoted6 years ago
    В частности, нейронные сети едва ли имеют какое-то сходство с мозгом. Более подходящим было бы название обучаемые многоуровневые представления, или обучаемые иерархические представления, или даже глубокие дифференцируемые модели, или последовательные геометрические преобразования, чтобы подчеркнуть непрерывность манипуляций с геометрическим пространством.
  • kostalginhas quoted6 years ago
    Это означает, что геометрическое преобразование входных данных в выходные должно быть гладким и непрерывным, что является существенным ограничением.
  • kostalginhas quoted6 years ago
    Вот что такое генеративно-состязательная сеть: она состоит из двух сетей — выполняющей подделку и оценивающей эту подделку, постепенно обучающих друг друга:
  • kostalginhas quoted6 years ago
    Сеть-генератор обучается обманывать сеть-дискриминатор и, соответственно, учится создавать все более реалистичные изображения: поддельные изображения, неотличимые от настоящих в той мере, на какую способна сеть-дискриминатор (рис.
  • kostalginhas quoted6 years ago
    В последнее время большим успехом на практике пользовалась обширная категория моделей, сочетающих глубокое и поверхностное обучение. Такие модели состоят из совместно обучаемых глубокой нейронной сети и большой линейной модели. Совместное обучение семейства разных моделей — еще один способ ансамблирования.
  • kostalginhas quoted6 years ago
    Во многих областях, и особенно в творчестве, ИИ будет использоваться людьми как инструмент для расширения своих возможностей: более широких, чем возможности ИИ.
  • kostalginhas quoted6 years ago
    Для поиска оптимальных весов в ансамбле можно использовать алгоритм случайного поиска или простой оптимизации, такой как Nelder-Mead:
fb2epub
Drag & drop your files (not more than 5 at once)