- 807
- 4 023 143
Компьютерные науки
Russia
Приєднався 27 жов 2014
Школа анализа данных - shad.yandex.ru/
03. Дикуссия «Ближайшее будущее диффузионных моделей»
Участники:
- Петр Ермаков, ML Brand Director, Яндекс
- Иван Барабанов, Разработчик, ВКонтакте, deep vk
- Валентин Хрульков, ведущий исследователь, Yandex Research
Денис Димитров, Исполнительный директор по исследованию данных Sber AI, научный консультант AIRI
Вместе со специалистами в области диффузионных картиночных моделей порассуждаем, куда развивается область. Поговорим про текущие положение дел и актуальные технические барьеры области.
- Петр Ермаков, ML Brand Director, Яндекс
- Иван Барабанов, Разработчик, ВКонтакте, deep vk
- Валентин Хрульков, ведущий исследователь, Yandex Research
Денис Димитров, Исполнительный директор по исследованию данных Sber AI, научный консультант AIRI
Вместе со специалистами в области диффузионных картиночных моделей порассуждаем, куда развивается область. Поговорим про текущие положение дел и актуальные технические барьеры области.
Переглядів: 1 002
Відео
02. Практические аспекты обучения масштабных диффузионных моделей - Валентин Хрульков
Переглядів 8938 місяців тому
Спикер: Валентин Хрульков, ведущий исследователь, Yandex Research Рассмотрим все этапы обучения foundational диффузионных моделей, начиная от подготовки датасета до регулярных замеров качества в процессе обучения. Обсудим scaling law эксперименты и их предварительные результаты. Так же обсудим различные аспекты применения этих моделей на практике: генерации рекламных баннеров, персонализация, с...
01. Kandinsky 2 X - Андрей Кузнецов
Переглядів 9298 місяців тому
Спикер: Андрей Кузнецов, Исполнительный директор по исследованию данных, Sber AI Рассмотрим теорию и доступную информацию о диффузионном процессе. Подробно покажу, чем отличается архитектура Kandinsky 2.1 от 2.2. Обсудим метрики для оценки качества генераций, поговорим про ключевые результаты релизов. Вместе посмотрим, в каких сценариях для бизнеса и практических приложениях можно применять наш...
Bias-variance tradeoff в анализе данных и реальной жизни. Максим Николаев, Школа анализа данных
Переглядів 2,2 тис.11 місяців тому
Лекция «Bias-variance tradeoff. Почему мы любим спрашивать совета у профессионалов» на Дне открытых дверей Школы анализа данных в Санкт-Петербурге, 22 апреля 2023 года. Лектор: Максим Николаев, координатор партнерского направления Яндекса «Науки о данных» на факультете МКН СПбГУ, преподаватель статистики и ML. С переобучением и недообучением модели сталкивается всякий, кто интересуется анализом...
Задачи RMQ и LCA. Часть 2
Переглядів 1,7 тис.2 роки тому
Дерево отрезков. Задача RSQ (range sum query). Задачи LCA (least common ancestor) и RMQ (range minimum query). Решение RMQ с помощью sparse table. Сведение LCA к RMQ (алгоритм Фарах-Колтона-Бендера). Сведение RMQ к LCA. Задача LA (level ancestors). Подробнее о поступлении в Школу анализа данных от Академии Яндекса: clck.ru/geqRt
Задача о кратчайших путях. Алгоритмы Беллмана-Форда, Флойда, Дийкстры и Джонсона
Переглядів 2 тис.2 роки тому
Кратчайшие пути в графах. Оценки расстояний и их релаксация. Алгоритмы Беллмана-Форда, Флойда и Дийкстры. Потенциалы. Критерий консервативности длин в терминах наличия допустимых потенциалов. Нахождение допустимых потенциалов с помощью алгоритма Беллмана-Форда. Алгоритм Джонсона. Подробнее о поступлении в Школу анализа данных от Академии Яндекса: clck.ru/geqRt
Практические алгоритмы для задачи о кратчайшем пути, задача о минимальном разрезе, алгоритм Штера-В
Переглядів 9032 роки тому
Практические алгоритмы для задачи о кратчайшем пути, задача о минимальном разрезе, алгоритм Штера-В
Модели вычислений. Анализ учетных стоимостей. Часть 1
Переглядів 8 тис.2 роки тому
Модели вычислений. Анализ учетных стоимостей. Часть 1
Сортировка слиянием. Быстрая сортировка.
Переглядів 1,3 тис.2 роки тому
Сортировка слиянием. Быстрая сортировка.
Misra-Gries. Деревья поиска. RB-деревья. Декартовы деревья и дучи.
Переглядів 7262 роки тому
Misra-Gries. Деревья поиска. RB-деревья. Декартовы деревья и дучи.
Минимальные остовные деревья. Алгоритмы Краскала и Прима. Системы непересекающихся множеств.
Переглядів 4652 роки тому
Минимальные остовные деревья. Алгоритмы Краскала и Прима. Системы непересекающихся множеств.
Модели вычислений. Анализ учетных стоимостей. Часть 2
Переглядів 2,2 тис.2 роки тому
Модели вычислений. Анализ учетных стоимостей. Часть 2
Сильно связные компоненты, точки сочленения и мосты
Переглядів 4082 роки тому
Сильно связные компоненты, точки сочленения и мосты
Очередь и стэки. Иммутабельность и персистентность
Переглядів 1,9 тис.2 роки тому
Очередь и стэки. Иммутабельность и персистентность
Длиннейшая возрастающая подпоследовательность 2. Кучи. Сортировка кучей
Переглядів 8802 роки тому
Длиннейшая возрастающая подпоследовательность 2. Кучи. Сортировка кучей
Splay-деревья. Обход в ширину. Обход в глубину. Топологическая сортировка и проверка ацикличности.
Переглядів 6832 роки тому
Splay-деревья. Обход в ширину. Обход в глубину. Топологическая сортировка и проверка ацикличности.
Быстрая сортировка и сортировка слиянием 2. Бинарный поиск. Длиннейшая возрастающая подпоследователь
Переглядів 1,5 тис.2 роки тому
Быстрая сортировка (Quick-Sort). Способы выбора разделяющего элемента. Элиминация хвостовой рекурсии. Порядковые статистики. Рандомизированный алгоритм Quick-Select. Детермининированный алгоритм поиска (метод "медианы медиан"). Бинарный поиск. Galloping. Линейное по времени слияние упорядоченных последовательностей. Оптимальное по числу сравнений слияние упорядоченных последовательностей. Задач...
Shifts Challenge | Distributional Shift and Robustness in Autonomous Vehicle Planning
Переглядів 7012 роки тому
Shifts Challenge | Distributional Shift and Robustness in Autonomous Vehicle Planning
Shifts Challenge | Adapting to Novel Data Distributions | Kate Saenko
Переглядів 4622 роки тому
Shifts Challenge | Adapting to Novel Data Distributions | Kate Saenko
Shifts Challenge | Panel Discussion "Frontiers for Uncertainty Estimation and Robustness"
Переглядів 3062 роки тому
Shifts Challenge | Panel Discussion "Frontiers for Uncertainty Estimation and Robustness"
Shifts Challenge | Shifts and other vices of human-computer dialogue
Переглядів 2612 роки тому
Shifts Challenge | Shifts and other vices of human-computer dialogue
Shifts Challenge | Presentation and Plenary talk | Andrey Malinin
Переглядів 5602 роки тому
Shifts Challenge | Presentation and Plenary talk | Andrey Malinin
Глубинное обучение. Оптимизация для глубинного обучения. Школа анализа данных, Яндекс
Переглядів 2,7 тис.2 роки тому
Глубинное обучение. Оптимизация для глубинного обучения. Школа анализа данных, Яндекс
Глубинное обучение. Adversarial learning. Школа анализа данных, Яндекс
Переглядів 1,3 тис.2 роки тому
Глубинное обучение. Adversarial learning. Школа анализа данных, Яндекс
Глубинное обучение. Глубинное обучение для 3D-реконструкции. Школа анализа данных, Яндекс
Переглядів 1,7 тис.2 роки тому
Глубинное обучение. Глубинное обучение для 3D-реконструкции. Школа анализа данных, Яндекс
Глубинное обучение. Представления внутри сверточных нейросетей. Школа анализа данных, Яндекс
Переглядів 1,8 тис.2 роки тому
Глубинное обучение. Представления внутри сверточных нейросетей. Школа анализа данных, Яндекс
Глубинное обучение. Латентные глубокие модели. Школа анализа данных, Яндекс
Переглядів 1,4 тис.2 роки тому
Глубинное обучение. Латентные глубокие модели. Школа анализа данных, Яндекс
Кручу-верчу... как будто все из говна и палок... подгонка на подгонке на подгонке... заменим предположим... натянем... так где глобус? Условность на условность на условность, порождает тот факт, что модель считает... Но условно )))) Вообще феноменально, как можно рассказывать достаточно не супер сложные вещи, которые чуть ли не школе можно преподавать, акцентируя внимания на абсолютно бесполезные на вводном этапе нюансы, но минуя вменяемое описание задачи в целом, которое интуитивно будет понятно даже и ежу...
Классный туториал, спасибо. Печально, что я пришел сюда только в 2024.
Гений Германский! Высший кайф его слушать)
За тему спасибо, но видео слабенькое. Основы объяснены невнятно. Что такое орнаменты, что и как с инструментами и т.д.
Математические обозначения придумали для облегчения жизни, а не усложнения, есть некоторое положения в математике, да и в машинном обучении тоже, которые легче записать математическим языком, нежели простыми словами, тогда это действительно облегчает. Но что за дебильная привычка вещи, которые можно объяснить человеческим языком описывать математическим? Может быть тогда еще в кафе заказ делать на математическом языке? И не важно, кто перед тобой, обычные слушатели, имеющие только базу школьной математики или же доктора физ. мат. наук. Задача же одна - донести суть дела максимально быстро и просто. Вспоминаем принцип бритвы Оккама
Не надоело повторять про реликтовое излучение одну и ту же версию о его происхождени?? Есть и другое объяснение этому излучению , хотя вы его не знаете!!((((
Очень тяжело слушать.
СФЭ из каждого элемента (конъюнкции, дизъюнкции и отрицания), кроме переменных, только один выход!
У чувака информация в мозгах не помещается
Странно слушать про министра Горшкова. Хочу напомнить что в это время уже существовал компьютер на базе Intel 8080, при чем не только у американцев, но боюсь ошибиться по моем болгары тоже выпускали что то похожее. Помню у них были 8 дюймовые дисководы. Слово персональный к Микро-80 можно применять вполне условно, сейчас компьютер применяется в основном для делопроизводства и каждый может на нем реализовать свое рабочее пространство выбирая из множества приложений. Тогда не было Windows не было таких графических возможностей, в то время компьютер применялся для решения узких прикладных задач. Сейчас редко кто из пользователей компьютера владеет каким либо языком программирования, тогда каждый кто работал на компьютере знал какой либо язык программирования начиная с Basic и заканчивая уж не знаю чем. Я писал программы на ассе́мблере.
Спасибо, добавил в плейлист крутых видео
Как обычно в конце вылезает балабол с плохо замаскированной целью покрасоваться.
Интересно, чего достигли за 7 лет?
❤
Политботы в коментариях это дело привычное, но чтобы веруны ботов напускали.. херасе, а зачем?
Учёные, кто родился в России\СССР и потом уехали за бугор = перестали быть русскими и они не могут считать себя русскими. Это просто предатели родины и это очевидный факт.
что 10 лет назад, что сейчас, что 100 лет назад - одно и тоже, т.е. ничего)))
Bla bla bla ..A.. Bla... a... a... a Noob
5 лет прошло, где прога.
Какие прорывы? Компов своих нет, аккамуляторов нет, учёных нет.
Можно ли утверждать, что в SVM поиск опорных векторов - это поиск базиса некоторого линейного пространства? А вектор весов получается линейной комбинацией этого базиса? Имеются в виду вектора - входные точки.
А что скажет на это наш создатель😂!
А я перед началом любых собесед спрашиваю у кадровика, сколько денег они дают, чтобы потом не заниматься торговлей. 95% сливаются, и время экономится.
this is an awesome talk. Professor Tishby explains his idea so clearly and so many inspirations I have.
Заебал ходить зад вперёд
17'10" !
Наверное, эти все таки уроки русского языка.
Слов много, математики мало.
Мы с ним в файнелс играем сосать
В чем странность сочетания Казахо-американского стартапа? Надеюсь, к вам больше не обратятся
в том что обычно они Американо-Казахские, по крайней мере раньше были
Вообще, я гуглила Алексея Натекина, (а не дата сайнс) с которым училась в школе РИД. рада видеть,если это ты😁
Отличное интервью так мало просмотров странно
С биржей такие методы не работают. Там функан чистый и японские свечи (теханализ)
так и знал эти старые пердуны во главе с Утиным нас хоят загнать в савок, в котором копировали с отстованием в 10 ле спиздив арефаленту
Мне чем-то профилированное дерево напоминает коды Хоффмана и сетевой маркетинг))
Стыдно слушать про это...все силы тратили на воровство идей а не на создание своего.
Спасибо, Валера, что отфильтровываешь дебилов 🐣
Как заставить нейросеть применить отпределённый эффект к изображению. Например перевести полноцвет в чб, а градацию света составить из полигонов разного размера?
Спасибо, интересный доклад
Огромное спасибо за такое интервью.
в школе спаял детекторный приёмник году в 2003м
Огромное спасибо, с большим удовольствием.
Если продали значит знали что если сегодня не продать то завтра это не кто не купит😂
Очень интересно работали пол жизни вместе но один стал антисоветчик а другой все еше обективность держит и правильно говорят сейчас уже не нужно заниматся аппаратной частью в их времена шол прогресс на миниатюризацию вычислительной техники а сейчас идёт регресс мощность компьютера увеличивают увеличением ядер тоесть опять взялись за маштабизацию хотя сейчас главная проблема это программное программы которые раньше были несколько килобайт сейчас это превратились в гигабайты ненужной повторяющейся информации сейчас нужно заняться миниатюризацией программного обеспечения и файлов без потери качества,
Тот кто стал "антисоветчик" как раз и держит объективность. "хотя сейчас главная проблема это программное " - это тогда была главная проблема. Сначала в Америке - ее револиционно решила IBM примерно в 1965г. с постройкий IBM360. Чуть не разорившись при этом. Через 5лет эта проблема настигла СССР. А поскольку было отставание, в СССР решили ее "сталинским" методом - скопировав передовое слово в компьютероной технике - IBM360 под маркой ЕС ЭВМ. Причем скопиторано было много чего еще, от микросхем до высококлассных приборов.
У твоего "обьективного" типичная речь "промытого"- слово как "надо" и через фразу опровержение... типичное расслоение сознания... То мы передовые, то отставали, то первые, то эволюция остановилась...
В то время, взрывного развития, каждый месяц был на счету(они сами обмолвились про мотороллу) и отставание на годы было катастрофическим! Когда штаты рассылали всем кому не лень 8080, они только осваивали технологию производства, подаренную им Никсоном...
Святой человек! Спасибо большое, теперь всё понятно.
Не слишком эмоционально, но очень интересно и наглядно, хорошо показыввает использование ии в реальности. Спасибо!!!!
С первых минут...никто не будет считать линию горизонта👎 либо огород, либо лестницу строили- вот теорема Пифагора.
👍
Подскажите, пожалуйста, почему у него в первой строчке на 19 слайде равенство, как оно получилось. Там же вместо вероятности (большая P) должна быть плотность распределения (маленькая p)
Класс, жаль, что битая ссылка на материалы