<AI> Open Notebook (NotebookLMのオープンソース版) の日本語化は、 基本的にDocker環境で構築する際のコンフィグレーション(設定)や、使用するLLMモデルの選択によって行います。 セルフホスト(ローカル環境)での構築手順と日本語化のポイントは以下の通りです。 1. Open Notebook のローカル構築と日本語化 DockerとOllamaを使用した環境構築において、日本語モデルを読み込ませることで日本語対応が可能です。 Dockerで起動: リポジトリをクローンし、Dockerでコンテナを構築します。 Ollamaで日本語モデルを使用: ローカルのLLM推論エンジンとしてOllamaを使し、Mistral-Nemo-Japanese などの日本語能力の高いモデルをインストールして設定します。 プロンプトの調整: 日本語で質問し、日本語で返答するようにシステムプロンプトを調整します。 2. 関連設定・注意点 AIプロバイダー設定: Open Notebookの画面上でAIプロバイダー(Ollamaなど)を設定する際、日本語に対応したモデルを選択します。 機能制限: 一部のローカルLLMでは、高度なRAG(検索拡張生成)機能が英語ほどスムーズに動作しない場合があります。 機密情報の取り扱い: 完全ローカルで動作するため、社内文書や個人情報などの機密情報を安全に扱うことができます。 (参考)クラウド版 NotebookLM の日本語対応 「Googleが提供するクラウド版の「NotebookLM」は、すでに日本語に対応しています。」 音声概要の日本語化: ノートブックの設定から「音声概要」を生成する際、言語を日本語に指定することで、日本語での会話形式の要約が作成できます。 詳細な情報源 Open Notebook をローカルで動かす — Docker + Ollama 構成 #LLM - Qiita セルフホスト型AIノート Open Notebook を試してみた | iret.media Open Notebookの公式GitHubリポジトリなどで最新の情報を確認することをおすすめします。