В гостях выпуска Виталий Кулиев - разработчик ИИ-проектов и автор YouTube-канала, который так и называется "Виталий Кулиев". С Виталием сначала я познакомился заочно через просмотр его роликов по ML и компьютерному железу, которое требуется для локального запуска опенсорсных моделей машинного обучения, а теперь и лично. Разговариваем о том, какие есть возможности у разработчиков и экспериментаторов ИИ нашего времени для работы на своих компьютерах. 3090, 3090 ti или 4090? Какие LLM можно запустить локально? В какие ограничения упираются локальные эксперименты с большими моделями? Можно ли и имеет ли смысл строить распределенную систему обучения больших моделей, по примеру распределенного майнинга криптовалют? Почему две видеокарты лучше, чем три? Обо всем этом в выпуске!
Ссылки выпуска:
YouTube канал Виталия (https://www.youtube.com/@kuliev.vitaly)
Телеграм-канал Виталия (https://t.me/vitaly_kuliev_it)
Буду благодарен за обратную связь!
Мой телеграм для связи (https://t.me/kmsint)
Подписывайтесь на телеграм-канал "Стать специалистом по машинному обучению" (https://t.me/toBeAnMLspecialist)
Я сделал бесплатный курс по созданию телеграм-ботов на Python и aiogram на Степике (https://stepik.org/120924). Присоединяйтесь, если хотите научиться разрабатывать телеграм-ботов!
Также в соавторстве с крутыми разработчиками я пишу курс по продвинутой разработке телеграм-ботов с элементами микросервисной архитектуры (https://stepik.org/a/153850?utm_source=mlpodcast&utm_campaign=ep_63).
Выразить благодарность можно добрым словом и/или донатом (https://www.tinkoff.ru/rm/kryzhanovskiy.mikhail11/NkwE718878/)