こんにちは!エンジニアの尾崎です。
先日、社内でAIに特化したLT会「AI LT会」を開催しました。今回はその様子をご紹介します。

開催の背景
コロプラでは以前からエンジニアのLT会を継続的に開催してきました。
最近は社内でのAI活用が急速に広まり、社員のAI活用率は9割以上になっています。コーディングや調査といった業務での活用事例はもちろん、プライベートでのユニークな使い方まで、知見が社内にどんどん蓄積されていきました。こうした活用事例をより多くの人に知ってほしいという想いから、AIに特化したLT会を開催しました。
また、今回のLT会にはエンジニア以外の方も参加されていました。
開催概要
会場は社内の開放的な会議室を使い、オフライン・オンライン双方から参加できるハイブリッド形式で開催しました。当日はオフラインに約20名、オンラインに約40名が集まり、大盛況の会になりました。
発表は1人5分で、計7名が登壇しました。
発表内容
OpenClaw と過ごした27日間
登壇者 上席執行役員 CIO 菅井さん
AIエージェントプラットフォーム「OpenClaw」を自宅に導入し、27日間使い続けた体験談を語っていただきました。
Discord経由でエージェントを呼び出し、学校からのお知らせメールやプリントのスキャン内容を解析して予定管理・カレンダー登録を自動化したり、自宅のMac miniを操作させたりと、生活に溶け込んだ活用をしたそうです。 一方でGoogleやAnthropicによるエージェント操作への制限という現実的な課題もあり、「使える体制づくり」をしていかなければならないということでした。
OpenClawという最新ツールの活用事例を知ることができて、面白かったです。特に完全なアクセス権(人が操作できることは何でもできること)が便利ではありますが、注意しないといけないポイントであると感じました。
ストック情報から始める AI Agent 無双 ~いろんな情報を食べさせたら、全自動で仕様を理解する頼もしい相棒に育ったので、俺はのんびり定時で帰ります~
登壇者 技術基盤本部 バックエンドエンジニア 岡村さん
長い年月運用しているプロジェクトでは仕様を人間が把握することは難しいため、その仕様をAIに理解させるという取り組みの発表でした。
具体的には、AIエージェントが理解しやすい「構造化されたデータとMCP」を利用して育てたとのことでした。
それにより、AIによる情報収集の自動化や企画の壁打ちができるなどのメリットがあったそうです。
間違えた情報が入っていると出力も間違えたり、コードレベルの仕様の把握は難しいなどの現状の課題も語られました。
AIに情報をストックさせることは、プロジェクトの仕様以外にも活用できそうだと思いました。良い活用事例で、勉強になりました。
枯れた技術だからこそ!C言語+LLMによる柔軟かつ安全なライブラリ開発
登壇者 AIイネーブルメントグループ エンジニア 工藤さん
C言語はほぼすべての環境で動く移植性の高さから、今もなお多くのソフトウェアの根幹を支えているという前置きから始まり、LLMを使ったC言語開発のコツを語っていただきました。
前提として、C言語は「必要最小限のハードウェア抽象化」しか行わず、例外機能やGCもないため細心の注意が必要ですが、長い歴史があるためエージェントはC言語の知識が豊富であり、エージェント以外にも各種検査ツール (Valgrind, Sanitizer 等) が充実しており、それらを活用することで一定の安全性は担保できるとおっしゃっていました。
また、アプリケーション開発というとアプリケーション自体に機能を実装することを考えがちですが、「移植性の高いライブラリ」を作成し、それを利用する形でアプリケーションを実装することで保守性と汎用性が向上するとのことでした。
具体的な開発方法として、AGENTS.mdにC99準拠やCMake、テストフレームワークの利用を指示し、最終的には、吐き出されたコードを読み直し、綺麗に整えることを行ったそうです。
C言語について熱く語っていただきました。具体的な話がたくさん盛り込まれており、C言語と周辺知識についての理解が深まりました。
また、将来の展望として、 Better C として Zig に期待していることなども説明していました。
Deep ResearchのAgentえーじゃん!
登壇者 経営企画本部 エンジニア 石塚さん
Googleが提供するDeep Research APIを使った発表です。
deep-research-pro-preview エージェントをバックグラウンドで非同期実行するAPIの組み込み方を中心に、Deep Researchをエージェントとして動かせることを実際のコードを交えて紹介していただきました。
ブラウザ版では、要約などをしてしまいかえってノイズになることがあり、それをInteraction APIを使うことで構造化データで出力し、次のステップで扱いやすくすることが語られました。
また、API使用時のコストとコスパについても語っていただき、数時間の業務が数百円で自動化できるのであれば安いとおっしゃっており、確かに安いと思いました。
あまり、Deep Researchは使うことがなかったので知らないことを色々知ることができました。また、今の時代はAIが活用しやすいデータを扱うことが重要なのだなと再認識させられました。
AI翻訳のお話
登壇者 技術基盤本部 バックエンドエンジニア 尾崎
私の発表になります。AIを活用した翻訳について話し、AI翻訳のワークフローや仕組みを中心に語りました。
翻訳時には、翻訳するテキストと類似しているテキストをハイブリッド検索で取得して一緒に渡したり、翻訳後に、別のAI(評価用AI)を用いて品質チェックを行うプロセスなどを紹介しました。
実際に運用してみて、翻訳速度の向上といった大きなメリットを感じた一方で、ネイティブスピーカーが読むと細かな違和感があるなど、品質面での課題も見えてきました。
現状ではまだ改善の余地はありますが、AIのさらなる進化によって、翻訳精度は今後ますます高まっていくと思っています。
howto-rulesync
登壇者 テクノロジー推進本部 クライアントエンジニア 山本さん
CursorやClaude Codeなど複数のAIツールで共通して使いたいルールファイルを一元管理・同期するツール「rulesync」の使い方を紹介した発表です。AIツールが増えるにつれてルールの管理が煩雑になりがちな課題に対して、rulesyncを使うことでどうシンプルに解決できるかを丁寧に説明していただきました。
この発表の後に自分も使ってみたのですが、便利でした。社内でも活用が進んでいるところを見たので、このようなLT会で情報が広がっていくのは嬉しいなと思いました。
DeepWiki Deep Dive
登壇者 AIイネーブルメントグループ エンジニア 山田さん
GitHubリポジトリを「何でも質問できるWiki」にするサービス「DeepWiki」を深掘りした発表です。
使い方はシンプルで、URLの github を deepwiki に変えるだけでリポジトリから自動生成されドキュメントを確認でき、コードに関する質問もできます。社内リポジトリやドキュメントが少ないマイナーライブラリの把握に便利で、さらにDeepWiki MCPを使えばClaude Codeから直接リポジトリに質問できることも紹介されました。
また、質問時に3つのモードがあり、その中の一つのCodemap機能では、コード構造について詳しい説明をしてくれるため、かなり嬉しい機能だと思いました。
「Wikiを眺めるよりも、質問できることがDeepWikiの本質的な価値」という言葉が印象的でした。確かに質問できるのはとても便利だと思います。
終わりに
業務の活用事例からプライベートでのユニークな活用事例まで、バラエティ豊かな発表が揃い、とても充実した会になりました。参加者のアンケートでも好意的な声が多く、知見を共有するという目的を十分に達成できたと感じています。
コロプラでは今後も社内LT会や勉強会を定期的に開催していきます。次回の記事もぜひお楽しみにしてください!
ColoplTechについて
コロプラでは、勉強会やブログを通じてエンジニアの方々に役立つ技術や取り組みを幅広く発信していきます。
connpass および X で情報発信していますので、是非メンバー登録とフォローをよろしくお願いいたします。