Function Calling

AI(企業向け)

ローカルLLM×「構造化出力(Structured Output)」実践ガイド【2026年版】——Ollama+Qwen 3・Llama 4でJSON Schema準拠の出力を100%保証する方法

はじめに——LLMの出力を「使えるデータ」に変える 「ローカルLLMで請求書からデータを抜き出したいのに、毎回フォーマットが違う」「LLMにJSON形式で返させたいのに、余計な説明文がついてくる」——こんな経験はありませんか? ...
AI(企業向け)

ローカルLLM×エージェント構築 実践ガイド【2026年版】——Ollama+LangGraph/CrewAI/Difyで「クラウドに出さない自律型AIエージェント」をオンプレミスで動かす完全構成

はじめに——「ローカルLLMでエージェントを動かしたいが、どう繋げればいいか分からない」 Ollamaでローカルにモデルを動かせるようになった。LangGraphやCrewAIといったエージェントフレームワークの名前も知っている。D...
AI(企業向け)

AIエージェントの「ツール呼び出し乗っ取り」攻撃対策ガイド【2026年版】——MCP・Function Calling・コードインタプリタの引数インジェクション攻撃の仕組みと、入力バリデーション・サンドボックスによる防御設計

はじめに——「正規のツールが、悪意ある引数で実行される」という新しい脅威 MCPサーバー、Function Calling、コードインタプリタ——AIエージェントが外部ツールを呼び出す仕組みは、2026年のAI活用において不可欠なイ...
AI(企業向け)

ローカルLLM×Function Calling実践ガイド【2026年版】——Ollama+Qwen 3・Llama 4でDB検索・ファイル操作・API呼び出しを完全オフラインで実行する

はじめに——ローカルLLMが「テキスト生成マシン」から「仕事をするエージェント」に進化した 「ローカルLLMでテキストを生成する」——これはもう当たり前になりました。しかし2026年現在、ローカルLLMにできることは大きく広がってい...
タイトルとURLをコピーしました