Воскресенье , 23 июня 2024

Машинное обучение кластеризация и классификация на Python (2020)

Машинное обучение кластеризация и классификация на Python (2020)

Выигрываем соревнование Kaggle с kNN, SVM, логистической регрессией, случайным лесом, XGBoost, CatBoost и LightGBM. Мы разберем прикладные подходы к кластеризации и классификации данных с помощью машинного обучения для страхового скоринга Prudential в соревновании на Kaggle вплоть до формирования конечного результата.

Материалы курса:
1. Задача страхового скоринга
— Страховой скоринг
— F1 и Каппа оценки классификации
— Метод ближайших соседей
— kNN скоринг
2. Логистическая регрессия и опорные векторы
— Обработка данных и оптимизация памяти
— Логистическая регрессия
— Иерархия логистической регрессии
— SVM: метод опорных векторов
— Сравнение классификации
3. Решающие деревья и ансамбли бэггинга и бустинга
— Решающие деревья
— Случайный лес
— Бустинг с XGBoost
— Градиентный бустинг
4. Ансамбль стекинга и финальное решение
— LightGBM
— CatBoost
— Ансамбль классификации
— Расчет результатов
— Финальное решение

Чему вы научитесь:
— EDA: исследовательский анализ данных
— Точность, полнота, F1 и каппа метрики
— Простая кластеризация данных
— Логистическая регрессия: простая и многоуровневая
— Метод ближайших соседей: kNN
— Наивный Байес
— Метод опорных векторов: SVM
— Решающие деревья м случайный лес
— XGBoost и градиентный бустинг
— CatBoost и LightGBM
— Ансамбль голосования и стекинга

Требования:
— Продвинутый Python
— Основы математической статистики
— Основы машинного обучения

В этом курсе:
— Проведение исследовательского анализа данных для поиска зависимостей: EDA.
— Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей.
— Очистка данных и оптимизация потребления памяти.
— Кластеризация данных и метод ближайших соседей.
— Простая и иерархическая логистическая регрессия.
— Метод ближайших соседей и поиск оптимальной модели.
— Метод опорных векторов: SVM.
— Дерево принятия решения и случайный лес (бэггинг).
— XGBosot и градиентный бустинг.
— LightGBM и CatBoost
— Ансамбль стекинга для голосования и выбора лучшего результата.
— Выгрузка результата для соревнования на Kaggle.

Для кого этот курс:
— Аналитики Python, изучающие машинное обучение
— Программисты больших данных
— Исследователи больших данных



Название: Машинное обучение кластеризация и классификация на Python
Год выхода: 2020
Жанр: Видеокурс, программирование, разработка, обучение
Формат видео: MP4 | 1280×720 | AVC
Формат аудио: AAC | 128 kb/s | 48 кГц
Язык: Русский
Продолжительность: 03:04:13
Размер: 3.3 Gb

Смотрите также

Основы печати для дизайнеров (2021)

В ходе интенсива участники изучат различные технологии и виды печати, а также создадут макет (или …

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *