COLOPL Tech Blog

コロプラのエンジニアブログです

【資料公開】技育CAMPアカデミアに登壇させていただきました - 実務で動くAIエージェントをライブコーディングで実践

こんにちは、AIイネーブルメントグループの山田(@yamadashy)です。

先日、学生向けの勉強会イベント「技育CAMPアカデミア」に登壇させていただきました。

talent.supporterz.jp

技育CAMPアカデミアについて

技育CAMPアカデミアは、サポーターズが主催する学生エンジニア向けの勉強会イベントです。現役エンジニアによるセッションや、学生との質疑応答を通じて、実務の知識や技術に触れる機会を提供しています。

今回のセッションタイトルは「実務で動くAIエージェントを作ろう! MCP×Mastraをライブコーディングで実践」。AIエージェントとMCPの仕組みを、実際にコードを書きながら解説しました。

セッション内容

当日は、CursorやClaude Codeのようなエージェントが何をしているかを理解することをテーマに、以下の流れで進めました。

まず座学パートでは、LLM単体では「知識の期限切れ」「外部APIへのアクセス不可」「長い処理の継続」といった限界があることを整理し、それを補う4つの部品(LLM・Tool・Loop・Memory)でエージェントが構成されていることを説明しました。

続いてツール呼び出しの設計、具体的には「どんな入出力にするか」「責務をどこで区切るか」という観点で、実装時の判断軸を解説しました。

ライブコーディングパートは4段階で構成しました。

  • レッスン1 ... ツールなし最小エージェント(入力 → LLM → 出力)
  • レッスン2 ... 外部APIツールを追加(天気APIで"調べて答える"を実現)
  • レッスン3 ... Mastraフレームワークを使い、同じことをシンプルに書き直す
  • レッスン4 ... Mastra + MCPで外部サービスと接続(DeepWikiのRemote MCPと、ローカルMCPサーバーを自作)

レッスン4では、DeepWikiに接続して特定のOSSリポジトリについて調査させるデモを行い、最終的に「MCPサーバーを自分で作る」ところまで実践しました。

詳しい内容は資料をご覧ください。

ライブコーディングのコードはこちらで公開しています。

github.com

おわりに

セッション後のQ&Aでは、参加した学生たちの熱量の高さに驚かされました。セキュリティや権限管理など、実装の一歩先を見据えた質問が次々と飛び出し、私自身も非常に楽しい時間を過ごせました。

スライドもコードもすべて公開しているので、AIエージェントやMCPを試してみたい方はぜひ手を動かしてみてください。



ColoplTechについて

コロプラでは、勉強会やブログを通じてエンジニアの方々に役立つ技術や取り組みを幅広く発信していきます。
connpass および X で情報発信していますので、是非メンバー登録とフォローをよろしくお願いいたします。