Участники узнают как обрабатывать, анализировать и визуализировать массивы больших данных, чтобы решать прикладные задачи в современном датацентричном мире
Научим анализировать большие массивы данных
Как поступить
Чтобы принять участие в интенсиве, зарегистрируйтесь до 31 января до 23:30 (МСК) и выполните тестовое задание. Оно появится на платформе LMS 16 января, ссылка придёт на почту после регистрации.
Обратите внимание, что на выполнение задания потребуется около 5-6 часов. Тестовое задание принимается также до 31 января до 23:30 (МСК).
Для обучения необходимы
•Знание языка Python: синтаксис, основные конструкции, встроенные типы данных
•Знание базовых алгоритмов обработки списочных данных: фильтрация, сортировка и поиск
•Знание словарей: группировка по ключу
•Опыт работы с итераторами, навыки организации потокового ввода и вывода данных через stdin и stdout
Что будут знать и уметь выпускники
•Понимать, как хранятся большие данные в распределённых файловых системах
•Обрабатывать большие данные с использованием парадигмы MapReduce
•Применять алгоритмы извлечения, фильтрации, преобразования, соединения и агрегирования больших данных
•Делать разведочный анализ данных для понимания их внутренней структуры и взаимосвязей
•Создавать витрины данных, визуализировать датасеты и строить дашборды
•Извлекать из данных полезную информацию и делать обоснованные выводы
•Создавать конвейеры для регулярной обработки больших данных
Команда
интенсива
Лид интенсива, Яндекс
Лектор, Яндекс
Лектор, Яндекс
Лектор, Яндекс
Лектор, Яндекс