Доступно

[Udemy] Машинное обучение: Обработка естественного языка на Python (V2) (Lazy Programmer Inc.)

Информация
Тип покупки: Оптовая
Цена: 350 РУБ

Организатор: Mergin Mergin
Статус:
Доступно
Список участников
  • 1.
    MB472
Mergin
Mergin
Бизнесмен
Сообщения
Монеты
0.0
Оплачено
0
Купоны
0
Кешбэк
0
Баллы
0
  • @Skladchiki
  • #1

Складчина: [Udemy] Машинное обучение: Обработка естественного языка на Python (V2) (Lazy Programmer Inc.)

Ссылка на картинку
изображение
Здравствуйте, друзья!
Добро пожаловать в раздел "Машинное обучение: Обработка естественного языка на Python (версия 2).
Это обширный курс "4 в 1", включающий в себя:
  • Векторные модели и методы предварительной обработки текста
  • Вероятностные модели и марковские модели
  • Методы машинного обучения
  • Методы глубокого обучения и нейронные сети
В первой части, посвященной векторным моделям и методам предварительной обработки текста, вы узнаете, почему векторы так важны в науке о данных и искусственном интеллекте. Вы узнаете о различных методах преобразования текста в векторы, таких как CountVectorizer и TF-IDF, а также познакомитесь с основами методов нейронного встраивания, таких как word2vec и GloVe.
Затем вы примените полученные знания для решения различных задач, таких как:
  • Классификация текстов
  • Поиск документов / поисковая система
  • Обобщение текста
Попутно вы освоите такие важные этапы предварительной обработки текста, как токенизация, стемминг и лемматизация.
Вы кратко познакомитесь с классическими задачами НЛП, такими как тегирование частей речи.
Во второй части, посвященной вероятностным и марковским моделям, вы узнаете об одной из самых важных моделей в науке о данных и машинном обучении за последние 100 лет. Она применяется не только в НЛП, но и во многих других областях, таких как финансы, биоинформатика и обучение с подкреплением.
В этом курсе вы увидите, как такие вероятностные модели могут быть использованы в различных областях, таких как:
  • Построение классификатора текстов
  • Генерация текста (создание поэзии)
  • Формирование статей
Важно отметить, что эти методы являются необходимой предпосылкой для понимания работы новейших моделей трансформаторов (внимания), таких как BERT и GPT-3. В частности, мы познакомимся с двумя важными задачами, которые соответствуют задачам предварительного обучения для BERT и GPT.
В третьей части, посвященной методам машинного обучения, вы узнаете о более классических задачах НЛП, таких как:
  • Обнаружение спама
  • Топологическое моделирование
  • Латентно-семантический анализ (также известный как латентно-семантическое индексирование)
  • Анализ настроения
Этот раздел будет ориентирован на применение, а не на теорию, т.е. вместо того, чтобы тратить большую часть усилий на изучение деталей различных алгоритмов ML, вы сосредоточитесь на том, как они могут быть применены для решения вышеуказанных задач.Конечно, для того чтобы понять суть происходящего, вам все равно придется кое-что узнать об этих алгоритмах. Будут использоваться следующие алгоритмы:
  • Наивный Байес
  • Логистическая регрессия
  • Анализ главных компонент (PCA) / разложение по сингулярным значениям (SVD)
  • Латентное распределение Дирихле (LDA)
Это не просто "какие-то" алгоритмы машинного обучения / искусственного интеллекта, а скорее алгоритмы, которые являются основными в НЛП и поэтому являются неотъемлемой частью любого курса НЛП.
В четвертой части, посвященной методам глубокого обучения, вы узнаете о современных архитектурах нейронных сетей, которые могут применяться для решения задач НЛП. Благодаря своей огромной мощности и гибкости нейронные сети могут быть использованы для решения любой из упомянутых в курсе задач.
Вы узнаете о:
  • Искусственные нейронные сети с обратной связью (ИНС)
  • Конволюционные нейронные сети (CNN)
  • Рекуррентные нейронные сети (РНС)
  • Встраивание
При изучении RNN будут рассмотрены современные архитектуры, такие как LSTM и GRU, которые широко используются компаниями Google, Amazon, Apple, Facebook и др. для решения таких сложных задач, как перевод языка, распознавание речи и преобразование текста в речь.Очевидно, что поскольку новейшие трансформеры (такие как BERT и GPT-3) являются примерами глубоких нейронных сетей, эта часть курса является необходимым условием для понимания трансформеров.
УНИКАЛЬНЫЕ ХАРАКТЕРИСТИКИ
  • Каждая строчка кода подробно объясняется
  • Не тратить время на "набор текста" на клавиатуре, как в других курсах - давайте будем честными, никто не сможет написать код, достойный изучения, всего за 20 минут с нуля
  • Не бойтесь математики университетского уровня - получите важные детали об алгоритмах, которые другие курсы оставляют без внимания
Продолжительность: 22.5 ч.
Язык: Английский + Английские субтитры.
 
Похожие темы
Просмотры
349
Просмотры
304
Просмотры
341
Просмотры
307
Просмотры
314

Зарегистрируйте учетную запись или войдите, чтобы обсуждать и скачивать материалы!

Зарегистрироваться

Создайте учетную запись. Это быстро!

Авторизоваться

Вы уже зарегистрированы? Войдите здесь.

Сверху