Мы используем файлы cookie для обеспечения работоспособности сервиса, улучшения навигации и маркетинговых активностей Yolonce. Нажимая "Согласен", вы соглашаетесь с нашей Политикой конфиденциальности

Машинное Обучение в Python: Большой Курс для Начинающих

  Сложность

Начинающий специалист

  Длительность

Пока неизвестно

  Формат

онлайн

  Документ по выпуску

Сертификат Stepik

Стоимость курса
2 300

Подробнее о курсе

Этот курс - лучший способ начать с нуля и стать специалистом по Машинному Обучению в Python! Отличительная особенность этого курса - низкий порог входа в машинное обучение, без необходимости глубоко погружаться в математику раньше времени. Внутри курса математика добавляется постепенно - таким образом, что даже гуманитарии успешно проходят этот курс и пишут об этом в отзывах. Если во время прохождения курса у Вас возникнут какие-либо вопросы, то смело задавайте их в комментариях к лекциям - я как автор курса с удовольствием отвечу на все Ваши вопросы!   В этом курсе Вы изучите следующие темы: - NumPy в Python - Детальное изучение Pandas для анализа и предварительной обработки данных - Детальное изучение Seaborn для визуализации данных (включая Matplotlib для кастомизации графиков) - Машинное обучение с применением библиотеки SciKit Learn, включая следующие темы: Linear Regression - Линейная Регрессия Regularization - Регуляризация Lasso Regression - Лассо-Регрессия Ridge Regression - Ридж-Регрессия Регуляризация Elastic Net Logistic Regression - Логистическая регрессия K Nearest Neighbors - Метод К-ближайших соседей Decision Trees - Деревья решений Random Forests - Случайные леса AdaBoost, GradientBoosting - Адаптивный бустинг, Градиентный бустинг Natural Language Processing - Обработка языковых данных K Means Clustering - Кластеризация К-средних Hierarchical Clustering - Иерархическая кластеризация DBSCAN (Density-based spatial clustering of applications with noise) - Кластеризация на основе плотности данных PCA - Principal Component Analysis - Метод главных компонент И многое, многое другое! Внутри курса находится набор блокнотов Jupyter Notebook с примерами кода и детальным описанием. Для каждой лекции это отдельные блокноты, которые разложены по папкам с соответствии с разделами курса.  Так что Вы сможете не только просмотреть видео-лекции, но и прочитать блокноты.  Это особенно удобно, когда Вам нужно что-то вспомнить или быстро пробежаться по материалу в поисках нужной информации. Надеюсь, что Вы запишетесь на этот курс и прокачаете Ваши навыки! Добро пожаловать! Этот обучающий курс доступен без ограничений по времени - Вы получите доступ и сможете проходить курс в удобном для Вас темпе, никуда не торопясь. p.s. На этот курс можно записаться как отдельно, так и в составе Пакета из 3 курсов "Data Scientist": Python + SQL + Машинное обучение (вот ссылка). Пакет курсов позволяет получить скидку по сравнению с 3 отдельными курсами.

Документ после выпуска

Сертификат Stepik

Автор курса

Stepik — образовательная платформа и конструктор онлайн-курсов. Мы разрабатываем алгоритмы адаптивного обучения, сотрудничаем с авторами MOOC, помогаем в проведении олимпиад и программ переподготовки. Наша цель — сделать образование открытым и удобным. Stepik — широко известная российская образовательная платформа, основанная в 2013 году. На Stepik зарегистрировано более миллиона пользователей из России и стран СНГ. В настоящее время на Stepik представлены несколько тысяч учебных курсов на самые разные темы.

Программа курса

  Вводная часть курса


- Добро пожаловать на курс!
- Материалы курса - ZIP-файлы для скачивания
- Установка Anaconda, Python, Jupyter Notebook
- Прочтите эту статью - Замечание о настройке среды разработки
- Настройка среды разработки
- Часто задаваемые вопросы
- Полезные советы об интерфейсе Stepik (опционально)

  ОПЦИОНАЛЬНО: Экспресс-курс по Python


- Пару слов об экспресс-курсе
- Экспресс-курс по Python - Часть 1
- Экспресс-курс по Python - Часть 2
- Экспресс-курс по Python - Часть 3
- Проверочные упражнения по Python
- Решения для проверочных упражнений по Python

  Этапы работ по машинному обучению


- Этапы работ по машинному обучению

  NumPy


- Обзор раздела про NumPy
- Массивы NumPy
- Индексация и выбор данных из массивов NumPy
- Операции в NumPy
- Проверочные упражнения по NumPy
- Решения для проверочных упражнений по NumPy

  Pandas


- Обзор раздела про Pandas
- Series - Часть 1
- Series - Часть 2
- Датафреймы - Часть 1 - Создание датафреймов
- Датафреймы - Часть 2 - Основные атрибуты
- Датафреймы - Часть 3 - Работа с колонками
- Датафреймы - Часть 4 - Работа со строками
- Выборка данных по условию (Conditional Filtering)
- Полезные методы - Apply для одной колонки
- Полезные методы - Apply для нескольких колонок
- Полезные методы - Статистическая информация и сортировка данных
- Отсутствующие данные (missing data) - Обзор
- Отсутствующие данные (missing data) - Операции в Pandas
- Агрегация данных GROUP BY - Часть 1
- Агрегация данных GROUP BY - Часть 2 - Мульти-индекс
- Объединение датафреймов - Конкатенация
- Объединение датафреймов - Inner Merge
- Объединение датафреймов - Left и Right Merge
- Объединение датафреймов - Outer Merge
- Методы Pandas для текста
- Методы Pandas для даты и времени
- Input/Output в Pandas - CSV-файлы
- Input/Output в Pandas - HTML-таблицы
- Input/Output в Pandas - Excel-файлы
- Input/Output в Pandas - SQL базы данных
- Сводные таблицы в Pandas (pivot tables)
- Проверочные упражнения по Pandas
- Решения для проверочных упражнений по Pandas

  Matplotlib


- Обзор раздела про Matplotlib
- Основы Matplotlib
- Объект Figure - принципы работы
- Объект Figure - код в Python
- Объект Figure - код в Python
- Subplots - несколько графиков рядом друг с другом
- Стилизация Matplotlib: легенды
- Стилизация Matplotlib: цвета и стили
- Дополнительные материалы по Matplotlib
- Проверочные упражнения по Matplotlib
- Решения для проверочных упражнений по Matplotlib

  Seaborn


- Обзор раздела про Seaborn
- Scatterplots - Графики рассеяния (диаграммы рассеяния)
- Distribution Plots - Часть 1 - Типы графиков
- Distribution Plots - Часть 2 - Код в Python
- Categorical Plots - Статистики по категориям - Типы графиков
- Categorical Plots - Статистики по категориям - Код в Python
- Categorical Plots - Распределения по категориям - Типы графиков
- Categorical Plots - Распределения по категориям - Код в Python
- Графики сравнения - Типы графиков
- Графики сравнения - Код в Python
- Seaborn Grid
- Матричные графики
- Проверочные упражнения по Seaborn
- Решения для проверочных упражнений по Seaborn

  Большой Проект по Визуализации Данных


- Обзор Проекта по Визуализации Данных
- Разбор решений проекта - Часть 1
- Разбор решений проекта - Часть 2
- Разбор решений проекта - Часть 3

  Обзор Машинного Обучения


- Обзор раздела
- Зачем нужно машинное обучение
- Типы алгоритмов машинного обучения
- Процесс для обучения с учителем (supervised learning)
- (ОПЦИОНАЛЬНО) Дополнительная книга для чтения - ISLR

  Линейная Регрессия


- Обзор раздела про линейную регрессию
- Линейная регрессия - История алгоритма
- Наименьшие квадраты
- Функция стоимости (Cost Function)
- Градиентный спуск (Gradient Descent)
- Простая линейная регрессия
- Обзор Scikit-Learn
- Scikit-Learn - Train Test Split
- Scikit-Learn - оценка работы модели
- Графики остатков - Residual Plots
- Внедрение модели и интерпретация коэффициентов
- Полиномиальная регрессия - теория
- Полиномиальная регрессия - создание признаков
- Полиномиальная регрессия - обучение и оценка модели
- Дилемма смещения-дисперсии (Bias-Variance Trade-Off)
- Полиномиальная регрессия - выбираем степень полинома
- Полиномиальная регрессия - внедрение модели
- Регуляризация - обзор
- Масштабирование признаков (feature scaling)
- Кросс-валидация - обзор
- Регуляризация - подготовка данных
- L2 Регуляризация - Ридж-регрессия - теория
- L2 Регуляризация - Ридж-регрессия - код в Python
- L1 Регуляризация - Лассо-регрессия - теория и код в Python
- L1 и L2 Регуляризация - Эластичная сеть Elastic Net
- Обзор данных для проверочного проекта по линейной регрессии

  Конструирование признаков (Feature Engineering) и подготовка дан


- Обзор Feature Engineering
- Работа с выбросами (outliers)
- Работа с отсутствующими данными (missing data) - Часть 1
- Работа с отсутствующими данными (missing data) - Часть 2
- Работа с отсутствующими данными (missing data) - Часть 3
- Работа с категориальными переменными

  Кросс-валидация и Проверочный проект по линейной регрессии


- Обзор раздела про кросс-валидацию
- Разбиение Train | Test Split
- Разбиение Train | Validation | Test Split
- Кросс-валидация - cross_val_score
- Кросс-валидация - cross_validate
- Поиск по сетке - Grid Search
- Обзор проверочного проекта по линейной регрессии
- Решения для проверочного проекта по линейной регрессии
- Случайный поиск - Random Search

  Логистическая регрессия


- Обзор раздела про логистическую регрессию
- Теория логистической регрессии - Часть 1 - Логистическая функция
- Теория логистической регрессии - Часть 2 - От линейной к логист.
- Теория логистической регрессии - Часть 3 - Математика перехода
- Теория логистической регрессии - Часть 4 - Поиск графика
- Логистическая регрессия в Scikit-Learn - Часть 1 - EDA
- Логистическая регрессия в Scikit-Learn - Часть 2 - Модель
- Метрики классификации - Confusion Matrix и Accuracy
- Метрики классификации - Precision, Recall и F1-Score
- Метрики классификации - ROC-кривые
- Логистическая регрессия в Scikit-Learn - Часть 3 - Оценка модели
- Мульти-классовая классификация - Логистическая регрессия - EDA
- Мульти-классовая классификация - Логистическая регрессия -Модель
- Проверочный проект по логистической регрессии
- Решения для проверочного проекта по логистической регрессии

  Метод К-ближайших соседей (KNN - K-Nearest Neighbors)


- Обзор раздела про метод К-ближайших соседей
- Теория метода К-ближайших соседей
- KNN: пишем код в Python - Часть 1
- KNN: пишем код в Python - Часть 2
- Проверочные упражнения по KNN
- Решения для проверочных упражнений по KNN

  Метод опорных векторов (SVM - Support Vector Machines)


- Обзор раздела про метод опорных векторов
- История метода опорных векторов
- Теория метода опорных векторов - Гиперплоскости и зазоры
- Теория метода опорных векторов - ядра (kernels)
- Теория метода опорных векторов - "kernel trick" и математика
- SVM в Scikit-Learn для задач классификации - Часть 1
- SVM в Scikit-Learn для задач классификации - Часть 2
- SVM в Scikit-Learn для задач регрессии
- Проверочные упражнения по методу опорных векторов
- Решения для проверочных упражнений по методу опорных векторов

  Деревья решений - Decision Trees


- Обзор раздела про деревья решений
- Деревья решений - История
- Деревья решений - Терминология
- Деревья решений - метрика "Gini Impurity"
- Построение деревьев решений с помощью Gini Impurity - Часть 1
- Построение деревьев решений с помощью Gini Impurity - Часть 2
- Код в Python для деревьев решений - Часть 1 - Данные
- Код в Python для деревьев решений - Часть 2 - Модель

  Случайные леса - Random Forests


- Обзор раздела про случайные леса
- История и мотивация создания случайных лесов
- Гиперпараметры случайного леса - Обзор
- Гиперпараметры случайного леса - Количество деревьев и Признаков
- Гиперпараметры случайного леса - Bootstrapping и oob_score
- Классификация данных с помощью RandomForestClassifier - Часть 1
- Классификация данных с помощью RandomForestClassifier - Часть 2
- Регрессия с помощью RandomForestRegressor - Часть 1 - Данные
- Регрессия с помощью RandomForestRegressor - Часть 2 - Модели 1
- Регрессия с помощью RandomForestRegressor - Часть 3 - Модели 2
- Регрессия с помощью RandomForestRegressor - Часть 4 - Модели 3

  Бустинг и Расширяемые деревья - Boosted Trees


- Обзор раздела про бустинг
- История возникновения бустинга
- AdaBoost - Теория - Как работает адаптивный бустинг
- AdaBoost - Код в Python - Данные
- AdaBoost - Код в Python - Модель
- Градиентный бустинг - Теория
- Градиентный бустинг - Пишем код в Python

  Проверочный проект по моделям обучения с учителем (Supervised Le


- Обзор проверочного проекта
- Разбор решений - Часть 1 - Исследование данных (EDA)
- Разбор решений - Часть 2 - Анализ оттока (Churn Analysis)
- Разбор решений - Часть 3 - Модели на основе деревьев решений

  Natural Language Processing и Наивный Байесовский Классификатор


- Обзор раздела про NLP и Наивный Байесовский алгоритм
- Наивный Байесовский алгоритм - Часть 1 - Теорема Байеса
- Наивный Байесовский алгоритм - Часть 2 - сам алгоритм
- Извлечение признаков из текста - Теория
- Извлечение признаков из текста, "Мешок слов" - пишем код вручную
- Извлечение признаков из текста с помощью Scikit-Learn
- Классификация текста - Часть 1
- Классификация текста - Часть 2
- Проверочные упражнения по классификации текста
- Решения для проверочных упражнений по классификации текста

  Машинное обучение без учителя - Unsupervised Learning


- Обзор обучения без учителя - Unsupervised Learning

  Кластеризация К-Средних - K-Means Clustering


- Обзор раздела про кластеризацию К-средних
- Принципы кластеризации данных (без привязки к алгоритму)
- Теория кластеризации К-средних
- Кластеризация К-средних - Пишем код - Часть 1
- Кластеризация К-средних - Пишем код - Часть 2
- Выбираем количество кластеров К - Теория
- Выбираем количество кластеров К - Пишем код в Python
- Квантование цветов - Теория
- Квантование цветов - Пишем код в Python
- Проверочные упражнения по кластеризации К-средних
- Решения для проверочных упражнений - Часть 1
- Решения для проверочных упражнений - Часть 2
- Решения для проверочных упражнений - Часть 3

  Иерархическая кластеризация данных


- Обзор раздела про иерархическую кластеризацию
- Теория и интуиция иерархической кластеризации
- Иерархическая кластеризация - Пишем код, часть 1 - Данные
- Иерархическая кластеризация - Пишем код, часть 2 - Scikit-Learn

  DBSCAN - Кластеризация на основе плотности данных


- Обзор раздела про кластеризацию DBSCAN
- Теория алгоритма DBSCAN
- Сравниваем DBSCAN и K-Means Clustering
- Ключевые гиперпараметры DBSCAN - Теория
- Ключевые гиперпараметры DBSCAN - код в Python
- Проверочные упражнения по DBSCAN
- Решения для проверочных упражнений по DBSCAN

  Метод главных компонент (PCA - Principal Component Analysis)


- Обзор раздела про метод главных компонент
- Теория метода главных компонент - Часть 1 - История и интуиция
- Теория метода главных компонент - Часть 2 - Математика
- Реализация метода главных компонент вручную
- Метод главных компонент в Scikit-Learn
- Проверочные упражнения по методу главных компонент
- Решения для проверочных упражнений по методу главных компонент

  Резюме курса


- Резюме курса
- Пройдите короткий тест
- Финальные шаги

Для кого этот курс

Для всех, кто хочет начать своё путешествие в удивительный мир машинного обучения.

Предварительные требования

Базовые знания Python (на уровне функций).

Либо опыт работы с другими языками программирования + готовность изучать Python в процессе курса.

Что вы получите

Построение моделей машинного обучения с учителем (Supervised Learning)

Применение NumPy для работы с числами в Python

Использование Seaborn для создания красивых графиков визуализации данных

Применение Pandas для манипуляции с данными в Python

Элементы Matplotlib для детальной настройки визуализаций данных в Python

Конструирование признаков (Feature Engineering) на реалистичных примерах

Алгоритмы регрессии для предсказания непрерывных переменных

Навыки подготовки данных к машинному обучению

Алгоритмы классификации для предсказания категориальных переменных

Создание портфолио проектов машинного обучения и Data Science

Работа с Scikit-Learn для применения различных алгоритмов машинного обучения

Быстрая настройка Anaconda для работ по машинному обучению

Понимание полного цикла этапов работ по машинному обучению

Этот курс - лучший способ начать с нуля и стать специалистом по Машинному Обучению в Python! Изучите библиотеки NumPy, Pandas, Matplotlib, Seaborn, Scikit-Learn и многое другое. Осваивайте Искусственный Интеллект на практике!

Оставьте отзыв

Напишите ваш коментарий, не менее 30 символов

Нажимая кнопку, вы даете согласие на обработку персональных данных

обновлено: 24.11.2024

Похожие курсы

Машинное обучение и доказательный алготрейдинг

Машинное обучение и доказательный алготрейдинг

Применение искусственного интеллекта в банках

Применение искусственного интеллекта в банках

Основы машинного обучения

Основы машинного обучения

Машинное обучение с подкреплением: обычное и глубокое

Машинное обучение с подкреплением: обычное и глубокое

Программа повышения квалификации «Искусственный интеллект»

Программа повышения квалификации «Искусственный интеллект»

Искусственный интеллект в государственном и муниципальном управлении

Искусственный интеллект в государственном и муниципальном управлении

Нейросети для всех или промпт-инжиниринг для дома и работы

Нейросети для всех или промпт-инжиниринг для дома и работы

Оставьте заявку

Наши консультанты ответят на все вопросы
И помогут в выборе

Комментарий ...

Нажимая кнопку, вы даете согласие на обработку персональных данных