Listen

Description

Думаете, увеличение контекстного окна до миллионов токенов решает все проблемы? На самом деле модели всё равно теряют фокус, упускают важные детали в середине и страдают от информационной перегрузки!

В этом выпуске обсуждаем:

Этот выпуск будет особенно полезен разработчикам и архитекторам, которые хотят создавать более умные и автономные AI-решения, используя такие инструменты, как Amazon Bedrock.

💡 Узнаете, почему Nova Micro в 27 раз дешевле популярных моделей и как правильно декомпозировать документы для векторного поиска с учётом прав доступа.

Навигация для Podbean:
(0:00) Introduction
(3:15) Проблема ограниченного контекста в LLM
(8:40) Что такое RAG и как он обогащает запросы?
(15:20) GraphRAG: новый уровень работы с данными через графы
(22:10) Tools и Function Calling: как научить LLM действовать?
(28:55) От диалоговых флоу к автономным AI-агентам
(35:30) Анонс следующего эпизода: что такое MCP?

Навигация для YouTube:
00:00:00 - Начало
00:03:15 - Проблема ограниченного контекста в LLM
00:08:40 - Что такое RAG и как он обогащает запросы?
00:15:20 - GraphRAG: новый уровень работы с данными через графы
00:22:10 - Tools и Function Calling: как научить LLM действовать?
00:28:55 - От диалоговых флоу к автономным AI-агентам
00:35:30 - Анонс следующего эпизода: что такое MCP?

 

🎧 Слушайте на любимой платформе:

YouTube

Podbean

Apple Podcast

Яндекс.Музыка

Spotify

• 💬 Какие подходы к расширению контекста используете вы? Пробовали Graph RAG в продакшене?

#AWS #AI #RAG #GraphRAG #LLM