
8月に開催しました、Notes/Domino 月一勉強会 夏休み回 の最後のスライドにありました宿題について、以下報告です。8月の勉強会は、事務局が一人で YouTube にて話をする形で進めました。この目的?の一つが YouTube の動画、音声を AI によってどのように纏められるか確認してみよう!、ということでした。このページではその成果(AIによる各種要約)を掲載しています。(文責:事務局)
利用したAIは Google の Notebook LMです。
その前に前回の勉強会の内容で、以下4点補足です。
1.ローカルLLMで、Ollamaを使っていますが、LM Studio の方が使いやすく、モデルの指定もこちらの方が簡単でした。AI endpoint URL: は https://127.0.0.1:1234/v1/chat/completions になります。LM Studioで、gpt-oss-20b のモデルを使い、Domino IQのリモートモードで動作させることができました。勉強会で確認していた四国4県の名前も正しく回答されました。
(LM Studio 参考 YouTube)gpt-ossをLM Studioで動かしてみよう!【ローカルPCで動くAI】〜初心者向け〜
2.8月の勉強会で使用していた Domino IQ の LotusScript について
(1)NotesLLMRequest クラスの Completion メソッドを使用していました。このため、推論エンジンが遅い場合、回答が返ってこないことが、前回のデモの中でもありました。
(2)今回、NotesLLMRequest クラスの CompletionStream メソッドを使用することで、推論エンジンが遅くても回答が逐次返ってくることを確認しました。
3.Domino Console で、日本語が文字化けする件について
ハンズオン中に確認された Domino Console の日本語文字化けについては、以下の技術文書を確認ください。
Domino IQ のデバッグパラメータによる出力で日本語が文字化けする
notes.ini の DEBUG_DOMINOIQ_LLMPAYLOAD=1 を設定した場合、Domino Console だけでなく、\HCL\Domino\Data\IBM_TECHNICAL_SUPPORT フォルダーの domiqllm で始まるログファイル(例:domiqllmthr40700_Aero_2025_09_26@19_23_06.log)にログが出力されます。このログファイルを確認したところ、日本語は正しく表示されていました。
4.メールに新しく追加されるDominoIQ標準(要約、Domino IQ 履歴付き返信)のメニューについて
こちらの記述(知っておくべき重要なこと)を参照ください。(ヒント:Directory Profile 文書)
上記、1. 2. を実際に推論を実行している様子を録画しました(音声無し)。CPU N200、メモリ16GBのミニPCで推論を実行しているので非常に遅いです。Notes, Domino Console, LM Studio それぞれの画面にいろいろな情報が逐次表示されているのが確認できます。(動画は4Kですので、拡大して見ていただけるかも?)
では、前回勉強会の内容を音声要約、ブログ形式、動画要約にてまとめたものを以下に置きます。
お断り:すべてAI出力のままです。誤った内容の記述もあります。
AIによるコンテンツ生成の実証実験の結果であることをご理解、ご承知ください。)
(音声) 短編(8:24)・Domino_IQの二つの道:HCL_Notes_DominoとLLM統合戦略、ローカルAIの現実とOllama活用の勘所
(音声) 長編(28:24)・Notes_DominoにAIを統合!Domino_IQのローカル_リモートモード徹底比較とGPU不要論の真相~技術者体験記
(参考資料) このコンテンツを生成するにあたって、参考資料として使用した資料
Integrating LLM in Domino.pdf
(Blog) HCL Domino IQを動かして分かった、AI統合の意外な「落とし穴」と「抜け道」
世はまさにAIブーム。ChatGPTをはじめとする大規模言語モデル(LLM)の話題が尽きない一方で、多くの開発者やシステム管理者は頭を悩ませています。「この強力なAIを、どうすれば既存のエンタープライズシステム、例えばHCL Dominoに組み込めるのか?」―それも、高価な専門ハードウェアや莫大な予算なしで。
この記事は、私が「夏休みの宿題」としてHCL Dominoの新機能「Domino IQ」を徹底的に触ってみた、実録レポートです。巷のAIの熱狂から一歩引いて、実際に手を動かしたからこそ見えてきた、意外な発見と実践的なノウハウを共有します。この実験から明らかになった、AI統合の思わぬ「落とし穴」と、それを回避するための賢い「抜け道」を学んでいきましょう。
1. AI統合への「二つの道」:自社完結のローカルモード vs 柔軟なリモートモード
Domino IQを導入するにあたり、まず理解すべきは二つの基本的な動作モードが存在することです。これらはAIの頭脳である「推論エンジン」と「LLMモデル」をどこで動かすかによって決まります。HCLのヘルプドキュメントに掲載されている構成図を見ると、このアーキテクチャが非常に分かりやすく理解できます。
• ローカルモード (Local Mode) これは、AIの推論エンジンとLLMモデルをDominoサーバーの環境内で直接実行する、自己完結型のアプローチです。最大の利点は、セキュリティとデータプライバシー。機密情報や社内データが一切外部に出ることなく処理されるため、「ソブリン・コラボレーション(データ主権を保った協業)」というコンセプトに合致しています。このモードを選択する場合、DominoサーバーにはGPUの搭載が必須となります。
• リモートモード (Remote Mode) こちらは、Dominoサーバーが外部のAI推論エンジンに接続する、柔軟性の高いアプローチです。外部エンジンには、別のマシンで稼働するオープンソースの「Ollama」や、ChatGPTのようなクラウドサービスを利用できます。AIの処理を外部に任せるため、構成の自由度が高いのが特徴です。
2. 最大の発見:Dominoサーバーに「GPUは不要」なケースがある
AIといえば高性能なGPUが必須というイメージが定着していますが、今回の実験で私が最も驚いたのは「Domino IQを動かすのに、必ずしもDominoサーバー自体に高価なGPUは必要ない」ということでした。
重要なのは、GPUの要件は必ずしもDominoサーバー自体ではなく、AI推論エンジンに紐づいているということです。
この点には少し説明が必要です。
• GPUが必須なのはローカルモードの場合です。AIの計算処理がDominoサーバー上で行われるため、その負荷を処理するGPUが不可欠となります。
• しかし、リモートモードでは、Dominoサーバーの役割は外部のAIエンジンにAPIリクエストを送ることだけです。実際の重いAI処理は外部エンジンが担うため、DominoサーバーはGPU非搭載でも問題ありません。
この発見を裏付けるため、私はGPUを搭載していないAWSインスタンス(t3 large, 8GB RAM)や、安価なミニPC(Intel N200, 16GB RAM)をDominoサーバーとして使用し、外部の推論エンジンに接続するテストを行いました。
ここでさらに重要な発見がありました。AWSインスタンス(8GB RAM)でのテストは、推論が遅すぎてLotusScriptの呼び出しがタイムアウトし、失敗しました。一方、安価なミニPC(16GB RAM)では、時間はかかったものの処理に成功したのです。これは、リモートモードではDominoサーバーにGPUは不要なものの、推論エンジンを動かす側のマシンには十分なRAMが不可欠であるという、強力で実践的な教訓となりました。AI統合のハードルは、想像以上に低い一方で、メモリという別のボトルネックが存在したのです。
3. 最初の最適な一歩は「Ollama」に触れること
Domino IQの設定にいきなり飛び込む前に、まずオープンソースのツール「Ollama」で実験してみることを強く推奨します。これは、今回の「夏休みの宿題」で得られた非常に実践的な教訓でした。
Ollamaは、自分のローカルマシンでLLMを動かすための実行環境です。まずOllamaに触れることには、以下のような大きなメリットがあります。
1. AIの基本概念が体でわかる:LLMモデル(GGUF形式のファイルなど)や推論エンジンといった、AIのコアとなる要素が何なのかを具体的に理解できます。
2. モデルごとの挙動を体験できる:様々な種類のLLMモデルを切り替えながら、それぞれのモデルがどのような応答をするのか、推論プロセスがどう進むのかを直接観察できます。
3. 安全な学習環境が手に入る:企業の重要なDominoサーバーを触る前に、無料で安全なサンドボックス環境で、心ゆくまで試行錯誤しながら学習を進められます。
ただし、ここで一つ注意点があります。企業や環境によっては、AI関連ツールのインストールがポリシーで禁止されている場合があります。Ollamaを試す前には、必ず自社のルールを確認してください。これは、エンタープライズ環境で技術を扱う上での重要な心構えです。
4. ビジネスの勘所は「ソブリン・コラボレーション」
技術的な詳細だけでなく、Domino IQがもたらすビジネス上の価値を理解することも重要です。そのキーワードが「ソブリン・コラボレーション」です。
これは「強力なコラボレーションツールを活用しつつも、自社のデータを完全に自社の管理下に置き、主権を維持する」という考え方です。Domino IQのアーキテクチャ、特にローカルモードは、この思想を強力にサポートします。
全てのデータを社内環境で完結させることで、企業の機密情報や個人情報を外部のクラウドAIサービスに送信することへの懸念を払拭します。これは、多くの規制業種では受け入れがたい、ChatGPTのような第三者のクラウドサービスに機密情報を送信するという、企業の中心的な懸念に直接応えるものです。AI時代において、この徹底したデータセキュリティへのこだわりは、HCL Dominoの大きな差別化要因となるでしょう。
5. エラーメッセージを恐れない:ある開発者の試行錯誤ログ
新しい技術への挑戦には試行錯誤がつきものです。そして、一見エラーに見えるものが、実は正常な動作であることも少なくありません。
今回の実験中、コンソールにDomino IQ タスク 終了中 ですというメッセージが表示されました。最初、私は「何かが失敗したのか?」と戸惑いました。私はこれが致命的なエラーだと確信し、もう少しで勉強会のグループに「リモートモードはGPUがないと動かない、壊れているようだ」と誤ったメッセージを送るところでした。
幸いにも、これはリモートモードにおける正常かつ意図された動作だと気づきました。これはDominoが「自分自身の内蔵エンジンは、外部のエンジンを使うのでシャットダウンします」と教えてくれているサインだったのです。この経験から得られる教訓は、AI統合の道のりには学習曲線が伴うということです。システムが発するメッセージの「なぜ」を理解することが、プロセスの一部であり、恐れずに前に進むための鍵となります。
HCL DominoへのAI統合は、ローカルとリモートという巧みに設計されたモードのおげで、多くの人が想像するよりもずっと身近で柔軟なものになっています。高価なGPUサーバーがなくても、リモートモードとOllamaのようなツールを活用すれば、今すぐにでも実験を始めることが可能です。
夏休みの自由研究として始めたこの実験が、これほど多くの実践的な発見につながるとは思いもしませんでした。これらの新しいツールを手にした今、あなたの会社のDominoデータベースに眠る、これまで「活用不可能」と思われていたデータの中に、どのような価値ある洞察が隠されているでしょうか?それを発見する旅が、今まさに始まろうとしています。
(Movie) AI統合クエスト:DominoIQとある開発者の旅
(マインドマップ) DominoIQ と LLM統合の技術詳細

以上です。
この生成されたブログ、動画、音声の内容には、誤った内容の含まれています。YouTubeで配信した、Notes/Domino 月一勉強会の動画から AI によってどのようなコンテンツが生成できるかの実証実験の結果としてご覧ください。(文責:事務局)
スポンサー:
本勉強会は、株式会社エムアイティーオフィス 様(当会会員)のご支援により開催します。ご支援、ご協力に感謝いたします。