Look for any podcast host, guest or anyone
Showing episodes and shows of

Mastra

Shows

AI Agents Hour2025-12-231h 52AI Agents Hour2025-12-231h 58AI Agents Hour2025-12-151h 47Dev Propulsion Labs2025-12-0942 minAI Agents Hour2025-12-081h 24Tool Use - AI Conversations2025-12-0238 minAI Agents Hour2025-11-252h 18AI Agents Hour2025-11-251h 39Double Slash2025-11-141h 18株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局株式会社ずんだもん技術室AI放送局 podcast 20251113youtube版(スライド付き) 関連リンク AIエージェントメモリの話 AIエージェントがまるで人間のように「記憶」を持つにはどうすれば良いか、その技術的な仕組みについて解説した記事ですね。新人エンジニアの方も、この要約を読めばAIエージェントの頭の中が少し理解できるようになるはずです。 まず、AIエージェントは「記憶」そのものを持っているわけではありません。実は、大規模言語モデル(LLM)が会話の流れを理解するために、必要な情報を一時的に「コンテキストウィンドウ」と呼ばれる場所に詰め込んでいるだけなんです。しかし、この窓の大きさには限りがあるため、過去の会話全てを記憶することはできません。 そこで、AIエージェントのメモリは大きく3つの層で管理されています。 短期メモリ(会話履歴): 直近の会話を覚えておく部分です。これはLLMのコンテキストウィンドウに直接入力されます。 長期メモリ(セマンティックリコール): 過去の膨大な会話の中から、現在の会話と「意味的に関連性の高い情報」を検索して取り出す仕組みです。このために、会話内容を数値のベクトル(埋め込み)に変換し、似たようなベクトルを探す「ベクトル検索」という技術が使われます。 ワーキングメモリ: 特定のユーザーに関する情報など、会話全体を通じて永続的に保持・更新したい情報を管理する部分です。これはMastraというサービスで特に注目されています。 これらのメモリ管理機能は、AWSのAmazon Bedrock Agentsや、国内のAI開発プラットフォームであるMastraといったサービスで提供されています。特に、Amazon Bedrock AgentCore Memoryは2025年10月に正式リリースされたマネージドサービスで、短期・長期記憶を統合的に管理し、豊富なAPIで様々なユースケースに対応できるようになっています。Mastraでは、このAgentCore MemoryのAPIを呼び出す「ツール」をAIエージェントに組み込むことで、より賢く振る舞うAIエージェントを開発できる事例が紹介されています。実際のコードもGitHubで公開されており、皆さんの開発の参考になるでしょう。 将来的には、現在のメモリ技術には限界があり、時間軸を考慮した「Temporal Knowledge Graph」のような、より高度な記憶管理方法が研究されています。AIエージェントが本当に賢くなるためには、この「記憶」の進化がカギとなるでしょう。 引用元: https://www.docswell.com/s/harinezumi/KJQPRX-2025-11-12-083604 RAGの検索結果を並び替えるだけで高速化する手法 RAGと高速化の必要性 RAG(Retrieval Augmented Generation)は、大規模言語モデル(LLM)が質問に答える際、外部の知識ベースから関連情報を「検索」し、それに基づいて回答を「生成」する技術です。これにより、LLMが学習していない最新情報や特定のデータにも対応できるようになり、LLMの弱点を補強します。しかし、RAGには課題があります。LLMに渡す情報(これを「コンテキスト」と呼びます)が長くなると、LLMがその情報を処理するのに時間がかかり、回答が遅くなりがちです。また、LLMへの入力が増えると、利用コストも高くなります。特に、複数のRAG処理を組み合わせて複雑なタスクをこなす「Agent」システムでは、RAGを何度も使うため、この速度やコストの問題が顕著になります。 「RAGBoost」:2つの工夫でRAGを速くする 今回紹介する「RAGBoost」は、このRAGの処理速度とコストを改善するための新しい手法です。主に二つの「キャッシュ」(一度使った情報を一時的に保存しておき、次から再利用する仕組み)を賢く活用することで、RAGを効率的に高速化します。 1. 過去の検索結果を効率的に再利用する AgentのようにRAGを繰り返し使う場合、実は同じような情報源(ドキュメント)を何度も検索結果として取得することがよくあります。RAGBoostでは、一度LLMに渡したドキュメントは、次からはその内容全体ではなく「ID」で、「これは前に見たDoc ID XXX番と同じ情報だよ」と伝えます。 これは、初めて読む本はすべて読みますが、前に読んだことがある本なら「あの青い表紙の本と同じ内容だよ」と伝えるだけで済ませるイメージです。これにより、LLMが毎回同じドキュメントの全文を再処理する手間が省け、処理が速くなり、LLMへの入力トークン数が減るためコストダウンにもつながります。 2. LLMのキャッシュ機能を最大限に活かす LLMには、入力された文章の「冒頭部分が全く同じ」であれば、以前の計算結果を再利用できる「キャッシュ」機能があります。つまり、もし全く同じ文章を二度入力したら、二度目の処理が速くなるということです。 RAGBoostでは、このLLMの特性を巧妙に利用します。具体的には、RAGが検索してきた複数のドキュメントをLLMに渡す際、以前の入力と「できるだけ冒頭部分が一致する」ようにドキュメントの並び順を工夫して入れ替えます。 例えば、前回「ドキュメントA、ドキュメントB、ドキュメントC」の順でLLMに情報を渡したとします。今回「ドキュメントD、ドキュメントA、ドキュメントB」という結果が検索されたら、RAGBoostはこれを「ドキュメントA、ドキュメントB、ドキュメントD」のように並び替えてLLMに渡します。こうすることで、「ドキュメントA、ドキュメントB」の部分についてはLLMのキャッシュが効き、再計算の無駄がなくなるため、高速化とコスト削減が見込めます。 確かな改善効果 これらのRAGBoostの工夫により、RAGの回答精度を維持しながら、情報の処理速度(Prefill Throughput)や、LLMが最初の言葉を出力するまでの時間(First Token Latency)を大幅に改善できることが実験で示されています。 まとめ RAGBoostは、RAGシステム運用における処理速度やコストの課題を、過去の情報の効率的な再利用とLLMのキャッシュ機能を活用することで解決する、画期的な手法です。RAGを開発・運用するエンジニアにとって、非常に役立つ技術であり、RAGだけでなく他のLLMを用いたAgentシステムにも応用できる可能性を秘めているため、今後のAI開発において注目すべきアプローチと言えるでしょう。 引用元: https://zenn.dev/knowledgesense/articles/687dce3199d11f Ollamaと行くローカルLLMの道 この記事は、ローカル環境で手軽に大規模言語モデル(LLM)を動かすためのオープンソースツール「Ollama」について、新人エンジニアの方でも分かりやすく解説しています。 Ollamaとは? Ollamaは、自分のパソコン上でLLMを動かすための実行環境で
2025-11-1200 minAI Agents Hour2025-11-111h 33AI Agents Hour2025-11-101h 09Podcast Archives - Software Engineering Daily2025-10-3057 minAll Content Archives - Software Engineering Daily2025-10-3057 minSoftware Engineering Daily2025-10-3057 minSoftware Engineering Daily2025-10-3058 minAI Agents Hour2025-10-282h 08AI Agents Hour2025-10-241h 36AI Agents Hour2025-10-141h 41AI Agents Hour2025-10-071h 11AI Agents Hour2025-10-071h 18AI Agents Hour2025-10-0730 minAI Agents Hour2025-10-072h 21Steven AI Talk2025-09-1705 minAI Agents Hour2025-09-081h 31AI Agents Hour2025-09-031h 44The AI Chopping Block2025-08-2851 minAI Agents Hour2025-08-272h 05The Leadership Exchange2025-08-2032 minAI Agents Hour2025-08-192h 13TypeScript.fm - The Friendly Show for TypeScript Developers2025-08-1248 minAI Agents Hour2025-08-121h 57跨国串门儿计划
跨国串门儿计划#197. 智能体还是工作流?别选了,掌握它们的组合魔法📝 本期播客简介本期节目中,Mastra.ai 联合创始人、《Principles of AI Agents》作者 Sam Bhagwat 深入探讨了当前 AI 工程领域的核心辩论:智能体(Agents)与工作流(Workflows),我们应该如何选择?Sam 认为这并非一个“非此即彼”的问题,而是“两者兼得”的艺术。你将听到他对 OpenAI 和 LangChain 等行业巨头的犀利点评,为什么他认为基于图的API“有害”,以及他提出的“能力 vs 控制”核心框架。这不仅是一场技术思辨,更是一份面向所有 AI 构建者的实用指南,教你如何像搭乐高一样,通过组合智能体与工作流,构建出强大而可靠的 AI 应用。⚙️ 本期嘉宾Sam Bhagwat,Mastra.ai 联合创始人,前知名网站框架 Gatsby 的联合创始人,《Principles of AI Agents》一书的作者。他在 AI 工程领域拥有丰富的实践经验,致力于探索和推广更高效、更易于理解的 AI 应用构建模式。🌟 精彩内容🗣️ “千万别做‘那种人’”:为什么大模型厂商不该“说教”开发者Sam 尖锐地批评了部分大模型厂商(点名OpenAI)试图定义开发“唯一正确方式”的傲慢姿态,并将其与十年前谷歌在 Web 开发领域的“说教”行为相提并论。他认为,平台方应该 fostering a healthy discussion,而不是将自己的偏好强加于整个生态,扼杀创新和多样性。“我这里会点名 OpenAI——就是,千万别做‘那种人’。我来解释一下在这个语境下‘那种人’指的是什么。就是那种总认为自己,而且只有自己,才懂开发的唯一正确方式的人。”🕸️ “看到图和节点就PTSD”:为什么说基于图的 API 是有害的凭借在 Gatsby 使用 GraphQL 的亲身“创伤”经历,Sam 提出,要求开发者为了构建工作流而去学习图论的框架(点名LangChain)是“有害的”。他主张代码的可读性至关重要,尤其是在团队协作中。一个好的工作流语法应该是自上而下、清晰易懂的,而不是迫使开发者在节点和边之间“连线”。“每当我看到类似这样的 API,就会有种‘创伤后应激障碍’的感觉。我认为,你不应该为了写工作流、构建生产应用,而去专门学习图论。”⚖️ 智能体 vs 工作流:一个“能力”与“控制”的权衡游戏Sam 提出了理解两者的核心框架:智能体提供“能力”(Power),拥有强大的灵活性和非确定性;而工作流提供“控制”(Control),保证了过程的可追溯性和可靠性。真正的艺术在于权衡,在应用的不同部分策略性地选择和融合两者,而不是将它们对立起来。“说到底,这就是一个权衡。你要么选择‘能力’(power),要么选择‘控制’(control)。你可以决定在哪些部分你想要强大的能力,在哪些部分你想要精确的控制。”🧩 真正的魔法:如何像搭乐高一样组合智能体和工作流真正的力量来自于组合。Sam 展示了多种强大的设计模式:一个智能体可以是一个步骤,一个工作流可以是一个工具;反之亦然。例如,通过“智能体主管模型”,让一个主管智能体调用其他专才智能体;或者将复杂的工作流打包成一个工具,交给智能体去决策。掌握这些简单的基本单元及其组合方式,就能快速构建出复杂的系统。“真正的魔法,发生在你把这些东西组合在一起的时候。……基本单元很简单,但是一旦我们掌握了它们的组合方式,我们就能跑得非常快。”🛠️ “如果它能用,那就是对的”:在AI新领域,实践比理论更重要在问答环节,面对“我的智能体虽然工具很多,但运行得很好”的提问,Sam 强调 AI 工程是一个实践远超理论的新领域。如果你的方法在实践中有效,那它就是正确的,即使它不符合某些“理论”。构建者应该相信自己的实践,因为理论本身可能才是错的。“我们更多的是一个实践社区,而不是一个理论社区。如果你的智能体能按你的需求工作,那就用它。如果它理论上不‘正确’,那很可能意味着理论是错的,而不是你的实践。”🌐 播客信息补充翻译克隆自:Agents vs Workflows: Why Not Both? — Sam Bhagwat, Mastra.ai本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的使用 AI 进行翻译,因此可能会有一些地方不通顺如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
2025-08-0512 minAI Agents Hour2025-08-052h 11The Provo Pulsecast2025-08-0504 minAI Agents Hour2025-07-282h 32Scaling DevTools2025-07-2447 minAI Agents Hour2025-07-211h 30AI Agents Hour2025-07-141h 44AI Agents Hour2025-07-071h 52AI Agents Hour2025-06-301h 37AI Agents Hour2025-06-231h 36AI Agents Hour2025-06-161h 28株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局株式会社ずんだもん技術室AI放送局 podcast 20250612関連リンク AI領域における組織の強みを活かすアーキテクチャ設計 AI Shift社が開発する企業向けAIエージェント構築プラットフォーム「AI Worker」について、開発チームとAIチームが協力し、組織の強みを最大限に活かすアーキテクチャ設計をどのように模索したかを紹介します。 AIエージェント開発における課題と変化 かつてはAIチームの研究力がプロダクトの強みでしたが、2024年からのLLM(大規模言語モデル)の急速な進化により、AIチームの研究と市場の変化にずれが生じました。開発チームはLLMのAPI組み込みに注力するようになり、AIチームとの連携が一時的に薄れる課題がありました。しかし2025年、AIエージェントが注目され、LLMだけでなく、多様なツール連携や記憶管理など、より複雑な要素が必要になったことで、開発チームもAIの専門領域に、AIチームも開発ノウハウに踏み込む必要が出てきました。 組織の強みを活かすアーキテクチャ設計のポイント 責務の再定義とチーム統合: AIエージェント開発では、AIチームの役割がアプリケーション層まで広がるため、サービス単位で責務を分けるのではなく、開発チームとAIチームを統合し、同じ実行エンジンサービス内でそれぞれの専門性を活かすようにしました。これにより、DB選定やHTTPサーバ構築など、AIチームが開発領域にも関われるようになります。 開発言語の統一(TypeScript): 元々異なる言語(AIチーム:Python、開発チーム:TypeScript)を使っていたところを、AIエージェントの実行エンジンもTypeScriptに統一しました。これは、他サービスのアーキテクチャを参考にできる、チーム間の知識共有がしやすくなる、開発速度が向上するといったメリットがあるためです。 AIエージェントフレームワーク「Mastra」の採用と向き合い方: TypeScript製のAIエージェントフレームワーク「Mastra」を採用することで、開発の初期スピードを上げられました。Mastraは、エージェントやワークフロー、RAG(検索拡張生成)などの主要機能に加え、デバッグや運用機能も充実しています。 一方で、AIエージェントの分野は変化が激しいため、特定のフレームワークに過度に依存せず、将来的に別のフレームワークに乗り換えられるように、重要な機能(例:データ永続化のための短期記憶)はMastraの機能を使わず、独自でPostgreSQLを導入するなど、疎結合な設計を意識しています。これは、柔軟な設計と将来への備えのためです。 疎結合な設計とFeature Flagの活用: 異なるチームが同じコードを触るため、コードベースでの「依存性の逆転」と「疎結合な責務分離」を徹底しました。これは、Mastraのワークフローを「ユースケース層」、記憶管理を「インフラ層」と捉え、それぞれが独立するように設計することで、テストのしやすさや、変更時の影響範囲を小さく保つための工夫です。 また、LLMの不確実性に対応するため、実装と検証を高速で回せる「Feature Flag」の仕組みを導入しました。これにより、新しい機能を本番環境に影響なく検証し、迅速に改善サイクルを回すことが可能になりました。例えば、AIエージェントの振る舞いを刷新するプロジェクトを、Feature Flagを活用することで約1ヶ月で本番リリースまで漕ぎつけ、長期的なR&Dの高速化に貢献しました。 まとめ AIエージェント開発では、開発チームとAIチームがお互いの領域に踏み込み、協力し合うことが重要です。そのためには、疎結合で柔軟なアーキテクチャ設計と、Feature Flagを活用した高速な検証サイクル基盤の構築が不可欠であり、これらが市場の変化に対応し、プロダクトを成長させる鍵となります。 引用元: https://zenn.dev/aishift/articles/c897d0e095c3d8 Agent Development Kit によるエージェント開発入門 タイトル: Agent Development Kit によるエージェント開発入門 要約: この資料は、大規模言語モデル(LLM)を基盤とした「AIエージェント」を開発するための入門ガイドです。新人エンジニアの皆さんが、AIエージェントの基本的な仕組みや開発の流れを理解するのに役立つ内容となっています。 まず、LLMが単なる質問応答にとどまらず、より複雑なタスクをこなす「エージェント」として機能するために必要な技術が説明されます。重要なのは、「情報検索(RAG: Retrieval-Augmented Generation)」と「Function Calling」です。RAGは、LLMが持つ既存の知識だけでなく、外部のデータベースやウェブ検索から最新情報を取得し、それを踏まえて回答を生成する仕組みです。これにより、LLMの知識をリアルタイムに拡張し、より正確な情報を提供できるようになります。Function Callingは、LLMがユーザーの意図を理解し、その意図に基づいて外部のツール(APIなど)を呼び出し、特定の処理を実行する能力です。例えば、「東京と京都の気温差を教えて」という質問に対して、LLMが自ら気象情報APIを呼び出し、必要なデータを取得・計算して回答を生成するといった、具体的なタスクの自動実行が可能になります。 これらのエージェントを効率的に開発するためにGoogleが提供するのが「Agent Development Kit (ADK)」です。ADKは、エージェントの構築に必要な機能を抽象化しており、開発者が複雑な実装ロジックを直接書く手間を減らします。ADKでは、LLMの振る舞いを定義するLlmAgentオブジェクトや、エージェントの実行・管理を行うRunnerオブジェクトといった主要なコンポーネントが提供され、これにより簡単にエージェントアプリケーションを構築できます。 さらに、ADKを活用することで、より複雑なエージェント構成も可能です。例えば、「サブエージェント」という概念では、特定の専門知識や機能を持つ複数のエージェントを用意し、ユーザーの質問内容に応じて最適なエージェントに処理を振り分けます。これにより、それぞれのエージェントが連携しながら、より高度で専門的な対話を実現できます。また、「Agent as a Tool」というパターンでは、別エージェントをあたかも一つのツールであるかのように扱い、他のエージェントから呼び出して利用することも可能です。 開発したエージェントは「Agent Engine」を使ってデプロイ(公開)できます。また、他のAIエージェントとの連携を容易にする「A2A (Agent to Agent) サーバー」と組み合わせたり、「Agentspace」のようなプラットフォームに登録して利用したりすることで、開発したエージェントの活用範囲を広げることができます。 この資料を通じて、AIエージェントがどのように外部の情報やツールと連携し、賢く振る舞うのか、そしてそれらを効率的に開発するための基本的なフレームワークや構成パターンについて、基礎を学ぶことができます。 引用元: https://speakerdeck.com/enakai00/agent-development-kit-niyoruezientokai-fa-ru-men AIエージェント「Cursor」で変わる開発マネジメントの実践論 この記事は、AIを搭載したコードエディタ「Cursor」を使い、開発組織のマネジメントをどのように効率化し
2025-06-1100 minAI Agents Hour2025-06-101h 05Dev Propulsion Labs2025-05-2027 minIl giorno migliore2025-03-301h 14株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局私立ずんだもん女学園放送部 podcast 20250321関連リンク Vercel AI SDK と mastra を使った AI Agent 開発 Tips Vercel AI SDKとmastraを使ったAI Agent開発の知見を紹介。SDK選定では、TypeScriptで使いやすいVercel AI SDKがおすすめ。ツール呼び出しの抽象化が容易だが、長いAgent処理ではSDKのループ外で自前のループを構築し、メッセージ履歴を管理する必要がある。Geminiは安価だが不安定な場合がある。mastraはVercel AI SDKをベースにしたフレームワークで、マルチエージェント協業やRAGが容易だが、裏側の動きが分かりにくい点とライセンスに注意。memory機能でメッセージ管理が容易になる。RAG構築はVercel AI SDKでも可能だが、mastraの方がより抽象化されている。メッセージ改変時の注意点も解説。 引用元: https://zenn.dev/bm_sms/articles/vercel_ai_sdk_mastra_ai_agent LLMにJSONやソースコードを出力させるStructured Generationの技術 LLMでJSONやソースコードを生成する際、形式が崩れる課題があります。そこで、出力トークンを制御し、形式を保証するStructured Generationが注目されています。 パーサーを用いて文法的に誤った出力を防ぐ方法がありますが、計算コストが課題です。 正則言語(正規表現で表現可能)では、DFA(決定性有限オートマトン)を利用し、状態遷移と語彙の関係を事前計算することで効率化します。 文脈自由言語(JSONなど)では、字句解析と構文解析を行い、次に来るべき終端記号を絞り込み、効率的なトークン制御を実現します。 これらの技術により、LLMによる構造化データ生成を安定化できます。 引用元: https://engineers.ntt.com/entry/202503-structured-generation/entry From innovation to impact: How AWS and NVIDIA enable real-world generative AI success Amazon Web Services AWSとNVIDIAは、生成AIの実用化を支援。重要なのはGPUだけでなく、オーケストレーション、ストレージ、ネットワーキング基盤。AdobeはAWSとNVIDIAの技術でモデル学習を20倍にスケールアップ。Perplexityは、AWSとNVIDIAの組み合わせにより、低レイテンシーと柔軟性を実現。Ciscoは、モデルとアプリケーションを分離することで開発速度とコスト効率を向上。Hippocratic AIは、安全性を重視した医療AIを構築。AWSとNVIDIAは、AI導入を支援する技術と事例を提供。 引用元: https://aws.amazon.com/blogs/machine-learning/from-innovation-to-impact-how-aws-and-nvidia-enable-real-world-generative-ai-success/ 近い将来「愚痴はAIに話すのがマナー」になってるかもという妄想漫画「AIは素直に聞いてくれる」「人間らしさはそこにはあるのか」 漫画家の一秒氏が、近い将来「愚痴はAIに話すのがマナー」になるかもしれないという妄想をTwitterに投稿し、話題を呼んでいます。多くのユーザーがこのアイデアに共感し、既にAIに愚痴や相談をしている人もいるようです。AIは人間と違い、感情的な負担をかけずに愚痴を聞いてくれるため、人間関係に配慮する現代社会において、AIと人間で役割分担をする未来が来るかもしれません。 引用元: https://togetter.com/li/2527525 お便り投稿フォーム VOICEVOX:ずんだもん
2025-03-2000 minRWpod - подкаст про Ruby та Web технології2025-03-1647 min株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250310関連リンク TypeScript 製の AI エージェントフレームワーク Mastra Mastraは、TypeScript製のAIエージェント構築フレームワークです。REST API、OpenAPI、Playgroundを提供し、AIエージェントに必要な機能(エージェント定義、ワークフロー、RAG、評価、オブザーバビリティ)を実装できます。 LLMプロバイダ(OpenAI, Anthropic等)のAPIキーが必要ですが、ローカルLLMも利用可能です。 AIエージェントの品質評価や、OpenTelemetryによるトレース収集もサポートしており、開発から運用までを支援します。 引用元: https://azukiazusa.dev/blog/typescript-ai-agent-framework-mastra/ MCPでLLMに行動させる - Terraformを例とした tfmcp の紹介 LLM(大規模言語モデル)からTerraformを操作するtfmcpを紹介。Model Context Protocol (MCP)を活用し、LLMが外部サービスと連携して「行動」できるようにする。 MCPはJSON-RPCベースのプロトコルで、リソース、ツール、プロンプトを定義。公式SDKも提供されているが、Rustで独自実装も可能。 tfmcpはTerraform設定ファイルの読み取り、プラン解析、適用、状態管理、設定ファイルの作成・修正が可能。 インストールはcargo install tfmcpで簡単に行える。Claude Desktopとの連携もサポート。 セキュリティ面では、信頼できるソースからのインストール、最小権限の原則、サンドボックス環境での実行、監査ログの有効化、機密情報のフィルタリング、定期的なセキュリティレビューが重要。 tfmcpのアーキテクチャは、MCPサーバー、Terraformサービス、コア、設定管理の各コンポーネントで構成。 引用元: https://syu-m-5151.hatenablog.com/entry/2025/03/09/020057 GitHub Copilot Chat、Visual Studio/VS Code上で画像を入力できるVision機能がパブリックプレビューに gihyo.jp GitHub Copilot Chatで、画像入力機能(Vision機能)が使えるようになりました。Visual Studio/VS Code上で、エラー画面のスクショやデザインモックアップをCopilotに直接見せて、解決策の提案やコード生成のヒントをもらえます。使い方は簡単で、ドラッグ&ドロップ、クリップボード貼り付け、専用メニューからのスクショ添付に対応。JPEG/JPG、PNG、GIF、WEBP形式の画像が使えます。GPT-4oモデルで提供されており、Copilotの「Editor Preview Features」を有効にする必要があります。 引用元: https://gihyo.jp/article/2025/03/github-copilot-vision-input お便り投稿フォーム VOICEVOX:春日部つむぎ
2025-03-0900 minHacker News Highlights2025-02-2012 minKaleidoscope Kids2024-06-1413 minSpeljuntan2023-07-0545 minMINDSET IMPRENDITORIALE Dentro e fuori l’azienda2023-05-1216 minTiDUs2022-10-281h 39Vinilo y sustancia2022-10-2540 minMixCult Records & Radio Podcast2022-09-1007 minThat’s Valid2022-05-0635 minL\'intervista - Radio Wellness2021-05-2005 minL\'intervista - Radio Wellness2021-05-2007 minRelationsbikten2021-04-091h 17Adriano Mirabile2021-02-2609 minTraderkanalen - Forexfrågor2020-07-2007 minSuoni&Parole2020-07-0701 minSuoni&Parole2020-07-0302 minQuiero Emprender (Oficial)2020-06-1109 minRockpodden2020-06-111h 03Tango Podcast in Italiano | Oltre 500 puntate online2020-06-0830 minSuoni&Parole2020-06-0703 minDrottningmötet2020-05-0546 minSuoni&Parole2020-05-0405 minSuoni&Parole2020-05-0107 minSuoni&Parole2020-04-1804 minKvantum ideí2020-04-1658 minEscucha Holírica Radio2020-04-151h 01Suoni&Parole2020-04-1206 minSuoni&Parole2020-04-1005 minSuoni&Parole2020-04-0304 minDJ RAGHAV - DARK Sessions!2020-03-2700 minSuoni&Parole2020-03-2605 minSuoni&Parole2020-03-2102 minSuoni&Parole2020-03-1304 minSuoni&Parole2020-03-0404 minSuoni&Parole2020-02-2705 minIT svět podle Jury2019-12-0832 minTraderkanalen - Forexfrågor2019-11-0705 minSlováci v zahraničí2019-10-1604 minMotiverende Intervju2019-07-1813 minTransport under Forandring2019-05-2725 minTraderkanalen - Forexfrågor2019-05-2020 minVariable Frequencies Podcast2018-08-282h 00GROOVELECTRIC: Downloadable Soul2018-03-021h 15Deep Space Podcast - hosted by Marcelo Tavares2017-12-082h 00Musikprodd-podden2017-05-0441 minBeercast Brasil2017-01-2545 minBeda2015-08-171h 35EarTheater - DJ Mixes2015-07-311h 02