2026.03.30 【フィジカルAI】最先端の機械学習技術を物理世界へ。EQUES、AWS ジャパン支援のもとフィジカルAI領域への挑戦を開始
株式会社EQUESは、「最先端の機械学習技術をあやつり、社会の発展を加速させる」というミッションのもと、新たにフィジカルAIのフロンティアへと踏み出します。この度、その第一歩としてAWS ジャパンによる「フィジカル AI 開発支援プログラム」に採択されました。 プレスリリース詳細はこちら ■ 次世代のロボット基盤モデル構築へ 昨今、生成AIの進化に伴い、デジタル空間のみならず物理世界(フィジカル)で自律的に動作するAIへの注目が急速に高まっています。本プログラムの支援を受け、EQUESは、AWSの強力な計算リソースや技術支援を活用し、Vision-Language-Action(VLA)をはじめとする次世代のロボット基盤モデルおよびAIソリューションの開発を行ってまいります。そしてデータ収集からモデルトレーニング、実環境へのデプロイまでの一連のパイプラインを強固に連携させた、体系的な開発を目指します。 ■ 代表取締役 岸 尚希 / 取締役 CTO 助田 一晟 よりコメント 「この度、AWS ジャパンの『フィジカル AI 開発支援プログラム』に採択いただいたことを大変嬉しく思います。弊社がこれまでこだわってきた『研究と実践をシームレスに繋ぎ、より良い解を社会に実装する』というアプローチは、フィジカルAIという新たなフロンティアにおいても強力な武器になると確信しています。本プログラムによる充実したインフラ・技術支援を最大限に活用し、現実世界の複雑な課題を解決するAI技術の開発に邁進してまいります。」 お問い合わせはこちらから
2026.03.30 製薬QAの「書く」時間をゼロへ。AI SaaS「QAI Generator」が逸脱報告や年次照査の自動生成に対応開始
弊社、株式会社EQUES(本社:東京都文京区、代表取締役:岸 尚希)は、医薬品製造の品質保証(QA)業務を効率化するAI SaaS「QAI Generator」において、大幅なアップデートを実施いたしました。 これまで提供していた「変更申請書」の自動生成に加え、新たに「逸脱報告書」「品質情報報告書」「年次照査」の3つの重要文書に対応しました。 QAI Generator 公式HPはこちら ■ アップデートの背景 製薬業界の品質保証領域は、高度な専門性と正確性が求められる一方、深刻な人材不足と文書作成負担が課題となっています。「QAI Generator」は、第一弾の変更申請書生成において業務量を約70%削減するなどの実績を上げてまいりました。 この度のアップデートにより、特に作成頻度が高く、膨大なデータの集約が必要な文書領域までカバーすることで、さらなる業務効率化と技術伝承を支援します。 ■ 新たに対応した文書 1. 逸脱報告書: 製造工程等で発生した手順からの逸脱事項について、AIが指定のフォームに入力された簡易なメモや状況をもとに、発生状況、原因調査、是正措置(CAPA)案などを論理的な文章として整理し、下書きを高速で生成します。 2. 品質情報報告書: 市場や医療現場などから寄せられた品質に関する情報(苦情など)について、調査結果や製品品質への影響評価の文書化をサポートします。専門用語の文脈を正確に捉え、迅速かつ適切な報告書作成を可能にします。 3. 年次照査: 1年間の製造および品質管理の記録を総合的に評価する年次照査において、変更管理、逸脱管理、苦情などの多岐にわたる項目のサマリー作成や、傾向分析の文章化をAIがアシスト。担当者の集計・執筆にかかる膨大な時間を大幅に削減します。 現在、二週間の無料トライアルを実施中です。実際の業務フローでの精度をぜひご体感ください。 詳細は下記プレスリリース、またはサービスサイトをご覧ください。 プレスリリースはこちらから QAI Generator公式サイトはこちらから
2026.03.30 【イベント】「SusHi Tech Tokyo 2026」NINEJPブースへの共同出展|最新研究開発のご紹介
株式会社EQUESは、2026年4月27日(月)から29日(水・祝)にかけて東京ビッグサイトで開催される、アジア最大級のグローバルイノベーションカンファレンス「SusHi Tech Tokyo 2026」に出展いたします。 本イベントでは、全国の大学発スタートアップ創出を支援するイノベーションエコシステム「NINEJP(National Innovation Network for Entrepreneur Japan)」様のご支援により、同団体の出展ブースの一角にて弊社の最先端の取り組みをご紹介する運びとなりました。 ◼︎イベント概要 「SusHi Tech Tokyo 2026」は、持続可能な新しい都市モデルの発信と、国内外のスタートアップエコシステムの構築を目的とした大規模カンファレンスです。 イベント名: SusHi Tech Tokyo 2026 Global Startup Program 開催日時: 【ビジネスデイ】2026年4月27日(月)・28日(火) 【パブリックデイ】2026年4月29日(水・祝) 会場: 東京ビッグサイト 西展示棟 公式サイト: https://sushitech-startup.metro.tokyo.lg.jp/ ◼︎EQUESの出展・展示内容について 当日のブースでは、AIを活用した実務支援ソリューションに加え、弊社が現在注力している高度な研究開発プロジェクトについて展示・解説を行います。 量子コンピュータを用いた研究 NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の委託事業として推進している、量子最適化技術を活用した多剤耐性菌の治療薬開発および治療戦略構築に関する最新の研究アプローチをご紹介します。 JPharmatron開発 経済産業省・NEDO主催のGENIACのも採択された、製薬特化型LLM「JPharmatron」の技術的展望と社会実装への道筋について解説いたします。 3DCAD(製造業)研究開発 製造業における設計・開発プロセスのDXを推進するため、3DCAD技術と機械学習を融合させた弊社の研究開発の取り組みをご案内します。 AI×DX寺子屋 東京大学出身のAI専門家集団が、企業様のAI・DXに関する技術的課題をチャットで解決する伴走型相談サービスです。月額定額制(20万円)での相談プラン(プランA)や、講義資料の作成・技術者派遣等を含むカスタマイズプラン(プランB)の詳細についてご説明します。 最先端のテクノロジーを実社会の課題解決にいかに結びつけるか、NINEJPブースにて直接ご案内させていただきます。ご来場の際は、ぜひお立ち寄りください。 イベント詳細・参加申込はこちらから
Service
EQUESは、高い専門性による創出力を、現場への価値変換力とスピードによって、
シームレスに産業へとつなげることを強みとしています。
EQUESは多くの企業とパートナーシップを結んでいます。 ※一部抜粋
Example
AI×DX寺子屋|茨城県立竜ヶ崎第一高校・附属中学校で「未来の教室」を開催
2025.11.17
中高生が「AIエージェント」で地元企業の課題解決に挑む 株式会社EQUESは、2025年10月18日に茨城県立竜ヶ崎第一高等学校・附属中学校(以下、竜ヶ崎第一高校・附属中学校)で開催された「ホンモノのキャリア教育プログラム」において、「未来を拓くAI×人のチカラ」をテーマにした特別授業を実施しました。本授業は、生徒がAIの現代ビジネスにおける重要性や最先端技術「AIエージェント」について理解を深め、地元企業のリアルな課題解決に挑む、新しい形のAI×ビジネスワークショップとして展開されました。 開催の背景:学校の想いとEQUESの「AI×DX寺子屋」 今回の特別授業は、同校の太田垣校長先生から頂いた「次世代を生きる生徒たちに“ホンモノ”のキャリア教育を提供したい」というご相談がきっかけとなりました。 このご要望に対し、弊社が推進するAI相談サービス「AI×DX寺子屋」のカスタマイズプランを活用。「ビジネスにおけるAIエージェントの台頭」という未来を見据え、AIと“協働”するとはどういうことかを考える、未来創造型のAI×ビジネス授業として実施する運びとなりました。 また、地元企業の実際の課題を題材にすることで、生徒の柔軟な発想が企業に新たな視点をもたらすとともに、生徒自身の地元企業への理解と愛着をも深める、地域全体でのWin-Winな関係構築を目指しました。 【ご協力いただいた地元企業・研究機関様のご紹介(一部:掲載許可を頂いた企業様のみ)】 国立研究開発法人日本原子力研究開発機構 様 株式会社 常陽銀行 様 株式会社タナカ 様 高エネルギー加速器研究機構 様 一誠商事株式会社 様 授業概要:AIエージェントで未来のビジネスをデザインする 当日の授業は、講義とワークショップの二部構成で実施しました。 1. 講義:AIとビジネスの関係 授業前半では、当社スタッフが登壇。EQUESが手掛ける「伴走型技術開発」や「製薬AI事業」などの具体的なAIソリューション事例を紹介するとともに、「なぜ今、ビジネス環境にAIが必要なのか」、そして「AIエージェント」という最先端技術が未来をどう変えるかについて解説しました。AIが単なるツールではなく、ビジネスのあり方そのものを変革する力を持っていることを伝えました。 2. ワークショップ:AIエージェントを活用して地元企業の課題を解決する 後半は、3〜4人のグループに分かれ、「地元企業の課題を分解し、それを解決するAIエージェントを考える」というテーマで実践的なワークショップを実施。生徒たちはAIやPCツールを積極的に活用しながら活発に意見を交換しました。最終的には溢れたアイデアをワークシートにまとめ、教室に設置されたモニターを使って発表を行いました。 (↑写真:常陽銀行様のワークシートの例。生徒は、若者と高齢者など、世代や環境によってサービスを利用したくなる条件は大きく異なっているため、それぞれに合った施策が必要だと考え提案を行いました。) 授業の雰囲気:技術的な質問が飛び交う、ハイレベルな議論 初対面のグループが多い中、すぐに打ち解けて目標に向けた建設的な話し合いが始まり、和気藹々とした雰囲気ながらも白熱した議論が展開されていました。 生徒の皆さんからは沢山の新しい発想が提案され、「アイデアはたくさん出るが、どう企業のサービスと合致させていけばいいのか」などといった発展的な悩みの声が聞かれるなど、その想像力の豊かさには驚かされました。 また、講師陣に寄せられた質問は、「その技術は具体的にどうやって実現するのか?」「ビジネスとしての実現可能性は?」といった、技術的な側面や事業性にまで踏み込むハイレベルなものばかりでした。 (↑写真:講義中の雰囲気。生徒様は熱心に授業に耳を傾け、新しいAIエージェント技術の概要に興味津々でした。) 校長:太田垣先生のコメント 飛ぶ鳥を落とす勢いのAIビジネスから中高生のために貴重なお時間をいただき、心より感謝申し上げます。「AIエージェント」というリクエストに応え、単なる座学ではなく動きながら身に付けるワークショップ型の講座にまとめ上げていただいた情熱と使命感に敬意を表します。準備や進行についても教職員と緻密な調整を重ねていただき、参加した生徒・保護者にも大満足の質の高い講座を一緒に作り上げることができました。 私たち竜一は今後も時代の先頭を走る生徒たちを育てていきます。今後ともどうぞよろしくお願いいたします。 EQUESより:未来のイノベーターたちへの期待 今回、竜ヶ崎第一高校・附属中学校という非常に意欲的な生徒の皆さんとお会いでき、私たち自身も大きな刺激を受けました。 「AIエージェント」は、まだ社会に普及し始めたばかりの新しい技術です。それを中高生のうちからビジネスの視点で考え、具体的な実現可能性まで踏み込んで質問する生徒たちのポテンシャルに、深く感銘を受けています。 今回の授業が、生徒の皆さんが未来のイノベーターとして羽ばたくための一助となれば幸いです。EQUESは今後も、最先端のAI技術を社会に結ぶ架け橋となる活動を続けてまいります。 今回の授業を実現した「AI×DX寺子屋」について 「AI×DX寺子屋」は、東大生・東大出身者が7割を占めるEQUESのメンバーが、AIやDXに関する素朴な疑問や困りごとをチャットで回答し、お客様のAI活用やDX推進をサポートするサービスです。 AI専門家集団への相談し放題、AIツールの活用提案を特徴とする月額制の「プランA」のほか、今回のようなAI人材研修の実施、技術顧問、開発支援など、お客様の要望に応じて柔軟に内容を決定する「プランB(応相談)」も提供しています。 皆様がAIと歩む未来を創造する一助となれば幸いです。 AI×DX寺子屋の詳細はこちら
SOLIZE PARTNERSが語る、製造業のDXにおけるAI活用のはじめの一歩
2025.10.31
■導入企業の紹介 SOLIZE PARTNERS株式会社(以下SOLIZE PARTNERS)は、日本で初めて3Dプリンターを導入して以来、長年にわたり日本のものづくりを支えているデジタルエンジニアリングのパイオニアです。昨今は社内のデジタルトランスフォーメーション(DX)にも取り組まれており、熟練技術のデジタル化による普及やAIを活用した新しいソリューション開発に注力されています。このたび、株式会社EQUESは、SOLIZE PARTNERSのAI技術導入による課題解決を支援するため、AI PoC(概念実証)サービス『ココロミ』を提供いたしました。導入から運用までの様子をインタビューさせていただきましたので、AI技術導入をお考えの方はぜひご一読ください。 ■SOLIZE PARTNERSの課題 SOLIZE PARTNERSがAI技術の導入において抱えていた課題は、「熟練技術者の頭の中にある情報をどうやってシステム化するか」というものでした。 AIによるDXを進めるにあたって、これまで熟練者が経験によって培ってきた感覚的で言葉にならないノウハウを、いかにAIのシステムに組み込み、活用に漕ぎつけるかという課題は、SOLIZE PARTNERSに限らずものづくり業界全体のDXにおける大きなボトルネックとなっています。 AI導入のプロジェクトを始めるにあたって、この課題を解決するべく、PoC(概念実証)からその分析、アクションプランの策定までを包括的に行う弊社サービス「ココロミ」が導入されました。 ■導入の経緯 「熟練技術者の頭の中にある情報をどうやってシステム化するか」という課題の中で、AIを活用する目的として立ち上がったのが「複数視点からの画像入力を用いた部品特徴の網羅的な検出」というテーマでした。 このテーマを軸に、SOLIZE PARTNERSとEQUESの共同検討がスタートしました。 ココロミを導入する決め手は、弊社が3D生成に関する豊富な経験を有していたことでした。例えば、株式会社セガ様との事業においては、ユーザが簡単なキーワード入力を行うだけでボクセル形式の3Dモンスターを生成するAIを開発した実績があります。(詳しくはこちら)。この開発をSOLIZE PARTNERSに認知していただいたことがご縁となり、共同開発が実現しました。 ■導入後の成果 ココロミでは、以下の2つのテーマでPoC(概念実証)を実施し、それぞれに新たな成果を得ることができました。 取り組み1:設計ナレッジの提案支援 最初の取り組みでは、特定の形状データから特徴を抽出し、それをもとに設計ナレッジを自動で提案するAIの実現性を検証しました。その結果、開発現場で直接活用できるレベルの設計知識をAIが提示できることを確認。従来のように過去資料や文献を検索する手間をかけずに、設計のヒントを得られるようになり、知見の再利用性が大きく高まりました。 取り組み2:3D CADデータの自動生成 次の取り組みでは、自然言語による指示からAIが適切な3D CADデータを生成できるかどうかを検証しました。その結果、単純な形状や構成であればAIによる自動生成が可能であることを確認しました。一方で、複雑な形状を扱う際には、構成部品となる要素データを事前に十分整備しておく必要があることも明らかになり、今後の改善の方向性が見えてきました。これらの検証を通じて得られた成果は、SOLIZE PARTNERSにおけるAI活用を現場レベルへ展開するための第一歩となりました。 ■ココロミ導入を通しての感想 ココロミの推進において、EQUESの徹底した伴走が大きな安心感につながったとのお言葉をいただきました。開発中、多くの技術的懸念や疑問に対し、担当PMエンジニアが都度、論理的な裏付けをもって丁寧に説明させていただきました。技術的な不確実性のあるテーマであったからこそ、一貫した伴走と安心感が、『ココロミ』の提供価値を高め、開発を成功に導くための心の支えとなったと評価いただいています。 さらに、AIという新しい技術への挑戦は、社内への新しい風となり、社員の意識を新たにする理由に繋がりました。 単なる技術検証に留まらず、AI活用に対する社内全体の意識を変革するという、文化的な成果も生まれました。 ■今後の展望 今回の『ココロミ』を通じて得られた知見と信頼関係を基に、SOLIZE PARTNERSはAI技術の応用をさらに深化させていく意向を示されています。 SOLIZE PARTNERS側の担当者様は、「ぜひ次の取り組みをやりたい」と力強く語り、自社の取り組みを継続していく決意を表明されました。 そして、今後の重要なテーマの一つとして、XAIの必要性が挙げられました。 (XAIとは…「説明可能なAI(Explainable AI)」の略。AI、特にディープラーニングは、なぜその結論に至ったのかという判断プロセスが複雑で、人間には理解しにくい「ブラックボックス」状態になることがある。XAIは、このブラックボックスの中身に説明を与え、AIの判断根拠や理由を人間が理解できる形で示すための技術やその研究分野を指す。AIの信頼性と透明性を高め、医療や金融、自動運転など、高い安全性が求められる分野で公正に活用されることを目指している。) SOLIZE PARTNERS側の担当者様は、「ブラックボックスになってしまいがちなAIの判断に説明の有無があることで、現場での意思決定に使えるかどうかは大きく変わる」と、実務における説明責任の重要性を強調されました。 株式会社EQUESは、『ココロミ』を通じて培われた具体的な知見と技術的な基盤をもとに、SOLIZE PARTNERSの新たな価値創造と産業の高度化を引き続き力強く支援してまいります。 SOLIZE PARTNERS HPにて、弊社CEO岸および本プロジェクトPMの村山のインタビューが掲載されております。詳しくはこちらからご覧ください。
AI-OCRで製造現場の記録を自動化|Cyto-Factoの導入事例
2025.10.23
―導入した会社の紹介 Cyto-Facto(サイトファクト)は、神戸に拠点を置く細胞・遺伝子治療分野に特化したCDMO企業です。FBRIの細胞治療研究開発センターを継承し、PIC/S GMP準拠の製造体制を整備。開発から製造、品質試験まで一貫支援し、独自のシステムによるDX推進で、安全かつ高品質な先端治療の社会実装を目指しています。 ― 今回のプロジェクトを始められた背景について教えてください。 製造現場では、通信機能のない機器が多く残っており、液晶パネルや制御PCの画面に表示される情報を作業員が手作業で記録していました。従来のOCR技術では操作が難しい上、読み取り精度も不安定で、業務効率化には限界があったのです。そこで私たちは、AI-OCR技術を活用し、画像認識とデータ抽出の精度向上を目指すプロジェクトを立ち上げました。 ― 具体的にはどのような取り組みをされたのでしょうか? まず、液晶パネルや制御PC画面から取得した画像データをAI-OCRで読み取り、MESやLIMSへ自動入力する仕組みを検討しました。さらに、UIモック版やクラウド版のOCRシステムを開発し、音声入力によるデータ修正機能(日本語・英語対応)も実装しています。また、GMP/GCTP規制を考慮したインターフェース設計にも取り組みました。 ― 開発パートナーにEQUESを選ばれた理由は何ですか? EQUES様は高精度AI-OCR技術の開発実績を持ち、医療や製造分野でのGMP対応経験が豊富でした。また、オフライン環境でのOCR対応力やMES/LIMSとの連携を見据えた提案力・技術力も魅力的でした。複数の課題に対し具体的な解決策を提示していただいたことも大きな決め手です。 ― これまでにどのような成果が得られていますか? UIモック版OCRの社内動作を確認済みで、音声入力によるデータ修正機能のデモも実施しました(日本語・英語対応)。さらに、GPTモデルを活用したクラウド版OCRの開発も進行中です。サンプル画像では100%の認識精度を達成しており、GMP対応を見据えた修正履歴管理機能の設計にも着手しています。 ― 現場からの反応はいかがでしょうか? 「計画通りに開発が進んでいる」「進捗共有がタイムリーで非常にスムーズ」「本開発に向けた準備が円滑に進んだ」といった声が多く寄せられています。現場にとっても大きな期待感につながっていると感じています。 ― 今後の展望を教えてください。 今後は、GMP/GCTP対応を含めたインターフェース設計の詳細化を進めていきます。さらに、iOSやAndroidに対応したアプリの開発や、動画・動的テロップの認識といった新たな機能拡張にも取り組んでいく予定です。
Member
東京大学大学院.ex 松尾研プロジェクトマネジャー.
松尾研起業クエスト1期生.
松尾研チーフAIエンジニアとして企業との共同研究に従事.その後,現実世界と情報学の融合を志し,計数工学科在学時にEQUESを創業.専門はシステム情報学,特にテラヘルツ波通信とハプティクス(触覚技術).
東京大学大学院. ex 松尾研プロジェクトマネジャー
松尾研起業クエスト2期生.産総研「覚醒」事業採択.
AIビジネスコンテスト全国優勝後,計数工学科で現CEO岸と出会いEQUESを創業.
専門は数理情報学であり,クラスタリング最適化や医療AI分野の研究でトップジャーナルや国際会議に採択されている.
Advisor
松尾 豊
技術顧問
2007年より,東京大学大学院工学系研究科准教授. 2019年より教授. 専門分野は,人工知能,深層学習,ウェブマイニング. 人工知能学会からは論文賞(2002年),創立20周年記念事業賞(2006年),現場イノベーション賞(2011年),功労賞(2013年)の各賞を受賞. 2020-2022年,人工知能学会,情報処理学会理事. 2017年より日本ディープラーニング協会理事長. 2019年よりソフトバンクグループ社外取締役. 2021年より新しい資本主義実現会議 有識者構成員. 2023年よりAI戦略会議座長.
Column
【企業向け】生成AIガイドラインの作り方と事例11選・必須項目(テンプレート付き)
2026.04.02
企業の競争力を高めるために生成AIの導入が急務となる一方で、「機密情報が漏洩しないか不安」「自社に合った社内ルールの定め方が分からない」と頭を抱える情報システム担当者やDX推進マネージャーの方は多いのではないでしょうか。 新しい技術を組織に導入する際、リスク管理とイノベーションのバランスを取ることは非常に難しい課題です。 本記事では、日本ディープラーニング協会(JDLA)や経済産業省が公開している信頼できる一次情報を基に、企業で生成AIガイドラインを策定するための具体的なステップや、他社の事例11選、実務に欠かせない必須項目を分かりやすく解説します。 この記事を読んでいただくことで、他企業が定めているルールの基準や、禁止事項・推奨事項といった実務的な観点を網羅的に理解できます。そして、自社に最適なガイドラインを作成し、安全で効果的なAI活用というゴールへ確実に到達するための道筋が見えてくるはずです。 AI導入に関する無料相談はこちら 1. 企業における生成AIガイドラインの必要性と「3つの隠れたリスク」 まずは、なぜ企業において生成AIを利用するためのガイドラインが強く求められているのか、その背景にある具体的なリスクを技術的・法的な側面から解説します。 リスク1. 機密情報の漏洩(Web UIとAPIの違い) 最も懸念されるのが、顧客の個人情報や未公開の財務情報などの機密漏洩です。一般に公開されている無料版の生成AI(Webブラウザから利用するタイプ)の多くは、入力したデータをAIの再学習に利用する規約となっています。 一方で、API(外部システムと連携するためのインターフェース)経由での利用や、法人向けプラン(Enterprise版など)では、入力データが学習に利用されない設定が可能です。ガイドラインでは、単に「AIの利用」を一括りにするのではなく、「どの通信経路・プランのAIツールであれば機密情報を入力してよいか」を明確に区別する必要があります(参考:経済産業省『AI事業者ガイドライン(第1.1版)』)。 リスク2. シャドーITによるネットワークセキュリティの脆弱化 会社が公式に許可していないITツールを従業員が勝手に業務で使うことを「シャドーIT」と呼びます。従業員が個人の判断で無料の生成AIを業務端末から利用することは、企業のネットワークセキュリティにおいて重大な脆弱性となります。 エンドツーエンドで通信が暗号化されていたとしても、クラウド上のAIサーバーにデータが渡った後の保護はプラットフォーマーの規約に依存します。公式なガイドラインを設け、安全な社内ツールを提供することで、このシャドーITの蔓延を防ぐことができます。 リスク3. 著作権侵害などの法的なトラブル AIが生成した文章、画像、プログラムコードなどが、既存の著作物と類似している場合、意図せず著作権侵害にあたる可能性があります。また、他社の著作物を要約させるためにAIに入力する行為自体が、利用規約や法律に抵触する恐れもあります。 生成物をそのまま外部へ公開するのではなく、社内で正確性や権利関係を確認するプロセスをルール化することが求められます。 ガイドライン策定に関する無料相談はこちら 2. 企業の生成AIガイドライン・導入事例11選【業種・規模別】 他企業や行政機関がどのようなルールを設けているのか、代表的な事例を11種類紹介します。各機関が公開している一次情報(公式ガイドラインやプレスリリース等)へのリンクも記載していますので、自社のルール作りの参考にしてください。 官公庁・自治体が策定したガイドライン5選 行政機関では、透明性やセキュリティ、そして公平性を重視した厳格なルールが策定されています。 1. 経済産業省 日本国内のAI開発や利用に関する包括的な指針である『AI事業者ガイドライン』を取りまとめています。AIの開発者、提供者、利用者の各主体が守るべき事項が整理されており、多くの民間企業が自社のルールを策定する際の根本的な参考基準としています。 2. 総務省 経済産業省と共同でガイドラインを統合・更新し、AI事業者ガイドライン(第1.0版)を公表するなど、AIの適切なガバナンス構築を推進しています。地方自治体がAIを導入する際の手引きのベースともなっています。 3. 文部科学省 教育現場(小中高校や大学)および研究機関における生成AIの取り扱いについて、『初等中等教育段階における生成AIの利用に関する暫定的なガイドライン』を公表し、生徒の思考力への影響や機密性の観点から指針を示しています。 4. デジタル庁 行政のデジタル化を推進する立場として、AIに関する取組を牽引しています。国や地方公共団体における生成AIの適切な利用に向けた実証実験(PoC)の検証結果や、業務利用における考え方を広く発信しています。(公式ページ:https://www.digital.go.jp/) 5. 東京都 全職員が安全に文章生成AIを利用できる環境を整備するとともに、『文章生成AI利活用ガイドライン』を広く一般に向けて公開しています。具体的に「どのような業務で使ってよいか」「どのようなプロンプトが良いか」が詳細に記載されており、民間企業にも非常に役立つ内容です。 民間企業における生成AIの導入・ガイドライン事例6選 民間企業では、情報漏洩を防ぐために「自社専用のセキュアなAI環境(クローズド環境)」をシステム的に構築し、それとセットで利用ガイドラインを運用するケースが主流となっています。 6. 一般社団法人日本ディープラーニング協会(JDLA) 企業がそのまま自社のルールとして利用できる『生成AIの利用ガイドライン』のテキスト編および画像編のひな形(Wordファイル)を無料で公開しています。法的な論点が網羅されており、ルール策定において最も実用的な一次情報です。 7. 株式会社日本総合研究所 シンクタンクという業務特性を踏まえ、独自のリサーチや提言を行っています。自社の厳格な基準に基づく知見を活かし、企業向けに生成AIの業務利用におけるガイドライン策定のポイントを発信。情報の正確性に対する責任の所在を明確にしています。(例:金融×生成AI -事例から導く変革の最前線と実践戦略-/Finance × Generative AI -Cases and Strategy) 8. パナソニック株式会社(PX-GPT) 国内エンタープライズ企業における代表的な成功事例です。入力したデータがAIの学習に二次利用されない安全な社内専用アシスタント「PX-GPT」を構築。全社的な利用ルール(ガイドライン)を定めた上で国内全社員へ展開し、生産性向上を強力に推進しています。 9. 大和証券株式会社 極めて高い機密保持が求められる金融業界において、全社員約9,000名を対象にChatGPT技術を活用した対話型AIを導入しています(参考:日テレNEWS)。ガイドラインによって入力情報の範囲を厳密に定めた上で、英語資料の翻訳や企画書の原案作成など、劇的な業務効率化を実現しています。 10. 日清食品ホールディングス株式会社(NISSIN AI-chat) 独自開発の対話型AI「NISSIN AI-chat」をグループ社員約4,000名に向けて公開しています。情報漏洩リスクをシステム側で遮断する仕組みを構築し、ガイドラインによる禁止事項の周知だけでなく、「まずは触ってみる」という社内風土の醸成に成功しています。 11. 富士通株式会社 全社員向けに、AIの仕組みや倫理的・法的リスク(正確性、バイアス、著作権、悪用など)を具体的なNG事例とともに解説した『富士通グループ AI倫理ガイドライン』を策定し、外部にも公開して社内教育を徹底しています。 ガイドライン策定に関する無料相談はこちら 3. 【JDLA準拠】企業ガイドラインに盛り込むべき必須項目 日本ディープラーニング協会(JDLA)が公開する資料をもとに、ガイドラインに必ず含めるべき実務的な項目を解説します。 ・利用許可ツールとアクセス権限の定義 会社として利用を許可するAIツール(例:Enterprise版の生成AI、社内開発の専用AIなど)を具体的に指定する「ホワイトリスト方式」を推奨します。また、誰がどのツールにアクセスできるのか、権限の範囲を明記します。 ・入力データの機密度分類(データクラシフィケーション) どのような情報を入力してよいかを明確にするため、社内の情報を「公開情報」「社内共有情報」「機密情報」「個人情報」などに分類し、それぞれのカテゴリにおけるAIへの入力可否をマトリクス表などで分かりやすく規定します。 ・生成物の検証(ファクトチェック)プロセス AIの回答にはもっともらしい嘘(ハルシネーション)が含まれる可能性があります。最終的な事実確認は必ず人間が行い、業務の成果物に対する責任はAIではなく人間(利用者)が負うことを義務付けます。 ・画像生成AIとシステム開発時の特有ルール 画像生成AIにおける商標権への配慮 画像生成AIを利用する場合、既存のキャラクターや企業のロゴとの類似性が法的リスクに直結しやすくなります。生成された画像が既存の権利を侵害していないか、商用利用が可能かを厳しくチェックするルールが必要です。 生成AIシステム開発時の契約ルール 自社の業務に合わせて生成AIを組み込んだシステムを外部委託で開発する場合、開発ベンダーとの責任分界点や秘密保持を明確にする必要があります。JDLAが公開している『生成AI開発契約ガイドライン』を活用し、事前の検証や契約形態を整備することが重要です。 4. 実務ですぐに使える!プロンプト入力の「OK・NG」具体例 ガイドラインの中に、実際の業務を想定した「やってはいけないこと(NG)」と「正しい使い方(OK)」の具体例を記載すると、従業員の理解度が格段に上がります。 【NG事例】リスクの高い入力 個人情報の入力:「以下の名刺データ100件を五十音順に並べ替えて。(名前、電話番号のリストをそのまま貼り付ける)」 未公開情報の入力:「来月発表予定の新規事業『〇〇プロジェクト』のプレスリリース案を書いて」 他者著作物の無断入力:「有料の経済ニュースサイトのこの記事(本文コピー)を要約して」 【OK事例】ガイドラインに沿った安全な入力 匿名化・抽象化:「架空のIT企業の新規事業(クラウドサービス)のプレスリリース案を作成して」 公開情報の活用:「自社の公式ホームページのURL(リンク)を読み込み、弊社の強みを3つのポイントでまとめて」 思考の壁打ち:「DX推進の社内研修を企画しています。アジェンダのアイデアを5つ提案して」 5. 【コピー&ペーストOK】生成AI利用ガイドラインの基本テンプレート 自社の実情に合わせて「[ ]」の部分を書き換えるだけで、すぐに社内ルールとして運用できる基本テンプレートをご用意しました。Wordファイルや社内ポータルサイトにコピー&ペーストしてぜひご活用ください。 【社内規程タイトル例】生成AIサービス利用ガイドライン 第1条(目的) 本ガイドラインは、株式会社[貴社名](以下、「当社」という)の役員および従業員(契約社員、派遣社員、アルバイトを含む。以下「従業員等」という)が、業務において生成AIサービスを安全かつ効果的に利用するための基本事項を定めることを目的とする。 第2条(適用範囲) 本ガイドラインは、従業員等が当社の業務遂行を目的として、会社が貸与する端末、または個人の端末から生成AIサービスを利用するすべてのケースに適用される。 第3条(利用を許可する生成AIサービス) 業務での利用を許可する生成AIサービス(以下、「許可ツール」という)は、以下の通りとする。これ以外の無料生成AIサービス等の業務利用(シャドーIT)は原則として禁止する。 [利用許可ツール名1:例 ChatGPT Enterprise] [利用許可ツール名2:例 Microsoft Copilot for Microsoft 365] その他、情報システム部門が個別に許可したサービス 第4条(入力情報の制限・禁止事項) 従業員等は、許可ツールを利用する際、プロンプト(指示文)に以下の情報を含めてはならない。 機密情報:当社の営業秘密、未公開の財務情報、技術データ、および他社と秘密保持契約(NDA)を締結している情報 個人情報:顧客、取引先、および当社従業員等の氏名、連絡先、その他の個人を特定できる情報 他者の著作物:新聞記事、有料コンテンツ、他社のプログラムコードなど、第三者が著作権を有する情報(ただし、権利者がAIへの入力を明示的に許可している場合を除く) 第5条(生成物の利用に関する遵守事項) 生成AIから出力された結果(文章、画像、コード等)を利用する際は、以下の事項を遵守しなければならない。 事実確認(ファクトチェック)の徹底:生成AIの出力には虚偽(ハルシネーション)が含まれる可能性があるため、必ず原典や一次情報に当たり、正確性を人間が確認すること。業務成果物に関する最終的な責任は、当該ツールを利用した従業員等が負うものとする。 権利侵害の確認:生成物が第三者の著作権、商標権、意匠権等を侵害していないか、利用前に十分に確認すること。特に画像生成AIを利用して外部向け資料を作成する場合は、[法務部門 / 所属長]の事前承認を得ること。 第6条(利用状況のモニタリング) 情報システム部門は、セキュリティ確保および本ガイドラインの遵守状況を確認するため、許可ツールの利用ログを定期的にモニタリング・監査する権利を有する。 第7条(違反時の措置) 本ガイドラインに違反し、当社に損害を与えた場合、または重大なセキュリティインシデントを引き起こした場合は、就業規則に基づき懲戒処分の対象となる場合がある。 附則 本ガイドラインは、[202X年X月X日]より施行する。なお、技術動向や法規制の変化に伴い、必要に応じて本ガイドラインの改訂を行うものとする。 【ガイドラインに関する問い合わせ先】 [情報システム部 / DX推進部:連絡先メールアドレス・内線番号] 【自社専用のガイドラインへのカスタマイズも承ります】 上記は汎用的なテンプレートですが、企業が属する業界(金融、製薬、製造など)や、社内のセキュリティポリシーによって、必要なルールは異なります。株式会社EQUESの「AI×DX寺子屋」では、貴社の業務実態に合わせたガイドラインのカスタマイズや、各種チェックリストの作成もチャットで手軽にご相談いただけます。 ガイドライン策定に関する無料相談はこちら 6. ガイドラインを社内に浸透させるための「伝え方」の工夫 どれほど立派なガイドラインを作成しても、現場の従業員に読まれ、遵守されなければ意味がありません。ルールを浸透させるためのコミュニケーションの工夫について解説します。 ルールを押し付けず「PASONAの法則」で腹落ちさせる 社内に新しいルールを周知する際、単に禁止事項を箇条書きにするだけでは「面倒くさい」「業務の邪魔になる」と反発を生むことがあります。 社内報や研修マニュアルで説明する際は、セールスライティングで用いられる「PASONAの法則」の構成を活用し、従業員の心情に寄り添うことが効果的です。 Problem(問題):日々の資料作成やリサーチ業務に時間がかかっていませんか? Affinity(親近感):新しいAIツールは便利ですが、セキュリティが不安で使いづらいという声も多く聞いています。 Solution(解決策):そこで、誰もが安全にAIを活用して業務を効率化できるよう、新しい社内ガイドラインを策定しました。 Offer(提案):このガイドラインの範囲内であれば、会社が認めたAIツールを自由に業務に活用していただけます。 Narrow down(絞り込み):まずは試験的に、営業部門とマーケティング部門から利用を開始します。 Action(行動):利用を希望する方は、以下のリンクからガイドラインを確認し、アカウントを申請してください。 このように、ルールの背景にある「業務効率化」というメリットを強調することで、前向きなAI活用を促すことができます。 7. 自社に合った生成AIガイドラインの作り方と運用5ステップ 実際にガイドラインを策定し、現場でスムーズに運用していくための手順を解説します。 ステップ1:現状課題の把握とプロジェクトチームの発足 情報システム部門、法務部門、そして実際にAIを利用する現場の代表者を集め、プロジェクトチームを立ち上げます。現場のニーズ(どのような業務でAIを使いたいか)を正しくヒアリングします。 ステップ2:利用目的・適用範囲・ツールの選定 AIを利用する目的を明確にし、セキュリティ要件(Enterprise版など、学習にデータが利用されないもの)を満たす適切なAIツールを選定します。 ステップ3:既存のセキュリティ規程との整合性確認 社内の既存の情報セキュリティ規程や個人情報保護方針と照らし合わせ、矛盾が生じないようにAI利用時のデータ区分の扱いを整理します。 ステップ4:ひな形を活用したガイドラインの成文化 JDLAのひな形などを参考に、具体的なルールを文章化します。専門用語を並べるだけでなく、前述のような「OK・NGの具体例」を盛り込むと効果的です。 ステップ5:社内教育の実施と定期的な見直し(アップデート) 全従業員に対して研修を行い、ルールの背景にあるリスクを啓蒙します。また、AI技術や法律は日々進化するため、半年に一度など定期的にガイドラインを見直す運用体制を整えます。 8. 生成AIの社内導入・システム開発は株式会社EQUESへ ガイドラインの策定は、AI活用のための最初のステップに過ぎません。ルールの策定から、安全なシステム環境の構築、そして従業員の教育まで、AIの社内導入を成功させるためには専門的な知見が不可欠です。 東京大学松尾研究所発のAIスタートアップである弊社(株式会社EQUES)では、確かな技術力と実績で、企業様のAI活用を伴走型で多角的にサポートしております。 「AI×DX寺子屋」でガイドライン策定や運用をサポート AIやDXに関するあらゆるお悩みを、東大出身のAI専門家集団がチャットで迅速に解決します。(https://aidxterakoya.jp/) プランA:月額20万円で相談し放題、月1回のオンラインミーティングを実施。ガイドラインのカスタマイズや運用ルールに関するご相談に最適です。 プランB:応相談。社内向けセミナーの実施や技術者の派遣など、貴社のニーズに合わせて柔軟に対応いたします。 大規模開発前のPoCサービス「ココロミ」で安全性を検証 自社専用のAIシステムを開発する際は事前の検証(PoC)が重要です。「ココロミ」では、大規模な開発投資を行う前に、生成AIが本当に自社業務の課題を解決できるかをスモールスタートで検証します。(スタンダードプラン:月々250万円から)(https://kokoromiai.jp/) 製薬業界に特化したSaaS「QAI Generator / Checker」 弊社は、特に高い正確性とコンプライアンスが求められる製薬分野において強みを持っています。 QAI Generator:簡単な質問に答えるだけで、製薬品質保証のGMP文書・法務書類をAIが自動作成します。実際の業務で文章作成時間を5割削減、レビュー時間を7割以上短縮した実績があり、経済産業省の「GENIAC」プロジェクトにも採択されています。(https://qai.eques.co.jp/) QAI Checker:複数の品質保証(QA)文書の齟齬をAIが自動検出するツールです。段落ごとに整合性を解析し、数値・工程・名称ミスなどのヒューマンエラーを網羅的に特定します。結果はエクセルで一括ダウンロード可能です。(https://qai-checker.eques.co.jp/) 9. まとめ 本記事では、生成AIガイドラインを企業で策定する重要性や事例、JDLA準拠の必須項目、そして具体的な策定ステップについて詳しく解説いたしました。 ガイドラインは、情報漏洩や著作権侵害のリスクを防ぎつつ、全社的な業務効率化を進めるために不可欠なルールです。 JDLAや官公庁が公開している事例・ひな形をベースにすることで、実務的で抜け漏れのないルールを効率的に策定できます。 単なる禁止事項の羅列ではなく、OK・NGの具体例を示し、PASONAの法則などを活用して社内の理解を得ることが浸透の鍵です。 策定して終わりではなく、従業員のリテラシー教育を実施し、技術の進化に合わせて定期的な見直しを行う運用体制が求められます。 「他社の事例や作り方は分かったが、自社に最適な形に落とし込めない」「導入後の教育体制や、自社専用システムの開発に不安がある」といった課題をお持ちのDX推進マネージャー様は、ぜひお気軽に株式会社EQUESまでお問い合わせください。 高い専門知識を持つメンバーが、貴社の安全で確実なAI活用の実現に向けて、技術と運用の両面から全力でサポートいたします。 ガイドライン策定に関する無料相談はこちら
生成AIで機密情報を扱うリスクとは?漏洩事例と安全な導入対策を徹底解説
2026.04.02
DX推進や業務効率化のために生成AIの導入を検討しているものの、「生成AIに機密情報を入力しても安全なのか」と懸念を抱える企業のDX推進責任者やIT部門マネージャーの方は多いのではないでしょうか。 本記事では、生成AIにおける機密情報の取り扱いに伴う具体的なリスクや過去の漏洩事例、社内規定の策定、安全なツールの選び方までを解説します。 弊社(株式会社EQUES)は、東京大学松尾研究所発のAIスタートアップとして、AIを用いた伴走型技術開発を通じて数多くの企業のAI導入を安全に支援してきた実績があります。その技術的な知見をもとに、確実な対策方法をお伝えします。 この記事を最後までお読みいただくことで、自社に最適なAI環境の構築方法と社内ルールの作り方がわかり、機密情報漏洩の不安なく生成AIを活用した業務効率化を一歩進めることができます。 AI導入に関する無料相談はこちらから 1. 生成AI利用時の最大の課題:機密情報漏洩のリスク 生成AIを業務で利用する際、最も注意すべき課題が「機密情報」および「個人情報」の漏洩です。生成AIは、入力したテキストやデータを学習データとして取り込み、サービス改善のために利用する設定になっている場合があります。業務上の機密情報を入力してしまうと、意図しない形で情報が外部に流出するリスクが存在します。機密情報が漏洩した場合には、企業の信用失墜や、なりすましによる二次被害につながる危険性があります。 生成AIに入力してはいけない「機密情報」とは 企業が生成AIを利用する際、以下の情報は原則として入力禁止とする必要があります。 個人情報: 顧客や従業員の氏名、住所、電話番号、メールアドレス、クレジットカード情報など。 営業秘密: 社外秘の技術データ、設計図、ソースコード、製造ノウハウなど。 経営・財務情報: 未公開の業績データ、M&Aの検討状況、取引先との契約内容など。 機密情報漏洩が起きる具体的なポイント 生成AIにおいて機密情報が漏洩する経路は、主に以下の4つに分けられます。 AIの学習データとしての取り込み: ユーザーが入力したプロンプト(指示文)に機密情報が含まれていた場合、その内容がAIの学習データとして取り込まれ、他のユーザーへの回答として出力されてしまう可能性があります。 保管された学習データへの不正アクセス: AIサービス提供者のサーバーに保管された学習データが、悪意のある第三者からのサイバー攻撃によって不正アクセスを受け、データが窃取されるリスクです。 システムのバグによる流出: AIサービス提供側のシステムやオープンソースライブラリの不具合により、他人のチャット履歴や機密情報が誤って画面に表示されるケースです。 アカウント情報の不正利用: 「インフォスティーラー」などのマルウェア感染により、Webブラウザに保存された従業員のAIサービスのアカウント情報が盗まれ、悪意のある第三者にログインされることで過去の履歴を閲覧されるリスクです。 2. 実際に起きた生成AIでの機密情報・個人情報の漏洩事例 機密情報を生成AIに入力するリスクを正確に把握するため、過去に発生した具体的なインシデント事例を提示します。 事例1:大手企業でのソースコードの流出 サムスン電子(Samsung Electronics)において、エンジニアが業務効率化のために社内のソースコードや機密情報を生成AIに入力し、情報漏洩につながった事例が報告されています。従業員が「入力してはいけない情報」を認識せずに利用したことが原因であり、結果として同社は社内での生成AI利用を一時全面的に禁止しました。(参照:Samsung Bans ChatGPT, Google Bard, Other Generative AI Use by Staff After Leak - Bloomberg) 事例2:バグによるチャット履歴および個人情報の流出 大手生成AIサービス、ChatGPTにおいて、オープンソースライブラリおよびインメモリ型データベースシステムのバグが発生しました。これにより、一部のユーザーの氏名、メールアドレス、クレジットカード情報や、他人のチャット履歴が別のユーザーの画面に表示される事態が発生しました。サービス提供側はデータを暗号化するなどの対策を講じていますが、システムの不具合による漏洩リスクがゼロではないことを示す事例です。 (参照:March 20 ChatGPT outage: Here’s what happened | OpenAI) 事例3:マルウェアによるアカウント情報のダークウェブ流出 マルウェアによって端末から盗み取られた10万件以上の生成AIサービスのアカウント情報がダークウェブ上で不正に取引されていることが確認され、日本からの漏洩も含まれていました。企業システム自体が強固であっても、エンドポイント(従業員の端末)が感染することで機密情報が流出する危険性が示されています。 (参照:Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list) 3. 生成AIで機密情報を守り、漏洩リスクを下げる対策方法 これらのリスクを低減し、生成AIで機密情報を安全に取り扱うためには、システム面での対策と組織的なルール作りが不可欠です。 入力禁止情報の明文化と社内規定の策定 社内のガイドラインを整備し、前述した個人情報やソースコードなどの機密情報の入力を明確に禁止します。また、クラウド型の生成AIを利用する場合は、入力データをAIの学習に利用させない設定を義務付けます。例えばChatGPTを利用する場合、設定メニューから「Chat history & training(チャット履歴とトレーニング)」をオフにするなどの具体的な運用ルールを策定します。 API連携や法人向けセキュア環境の活用 ブラウザ上の標準サービスをそのまま利用するのではなく、APIを利用して自社システムに生成AIを組み込むことで、入力データがAIの学習に利用されることを防ぐことができます。また、Microsoftが提供する「Azure OpenAI Service」などの法人向けクラウド環境を利用することで、より強固な通信の暗号化とデータ保護基準の下でAIを活用することが可能です。 社内研修によるITリテラシーの向上 情報漏洩の多くは、ヒューマンエラーによって引き起こされます。弊社が提供する「AI×DX寺子屋」では、業務特化型のAI研修を通して、安全なプロンプトの記述方法やセキュリティ意識の向上を支援しています。従業員のAIリテラシーを高めることが可能です。 AI研修サービス比較の関連記事はこちらから→【2026年】生成AI研修おすすめ15選と失敗しない選び方・助成金活用法 AI導入に関する無料相談はこちらから 4. 機密情報漏洩のリスクが最も低い「ローカルLLM」とは APIや法人向けクラウド環境(クラウドLLM)を利用しても、外部のサーバーにデータを送信するという構造上のリスクを完全に排除することは困難です。高度な機密情報を扱う場合、「ローカルLLM」の導入が有効な選択肢となります。 ローカルLLMの仕組みとメリット ローカルLLMとは、企業が自社のサーバーや閉域網内にAIモデルを直接構築し、運用する仕組みです。入力した機密データが外部のネットワークに出ることがないため、外部サーバーへのサイバー攻撃や通信経路での傍受による情報漏洩リスクを極めて低く抑えることができます。 ローカルLLMについて詳しく解説した記事はこちら!→ローカルLLMとは? 開発・導入からPCスペックまで徹底解説 | EQUES クラウドLLMとローカルLLMの選び方 自社にどちらの生成AIを導入すべきかは、業務内容と扱うデータの機密性によって決定します。 クラウドLLMが適しているケース: 一般的な文章作成やアイデア出しなど。APIや法人向けプランを活用することで、セキュリティを担保しつつ低コストで運用できます。 ローカルLLMが適しているケース: 顧客の個人情報処理、社外秘の技術文書の作成、未公開の製品企画など。情報漏洩が企業存続に関わる重大なダメージとなる業務において、確実な安全性を確保できます。 安全なAI導入に迷ったら株式会社EQUESへご相談を パッケージやツールの比較を含めた意思決定に迷われる場合は、弊社(株式会社EQUES)へお問い合わせください。 弊社は、月額定額制で東京大学出身のAI専門家にチャット相談ができる『AI×DX寺子屋』や、大規模開発前のPoC(概念検証)を月々250万円から行う『ココロミ』を提供しています。また、製薬業界向けの『QAI Generator』や『QAI Checker』など、機密性の高い文書を扱う領域での技術開発に強みを持っています。専門的な知見から、貴社に最適な安全なAI環境の構築をサポートいたします。 ぜひ一度お気軽にお問い合わせください。 AI導入に関する無料相談はこちらから 5. まとめ 本記事では、生成AIにおける機密情報の漏洩リスクとその対策について解説しました。 生成AIへの機密情報入力や、マルウェア等によるアカウント情報の流出、システムのバグによる漏洩事故は実際に発生しています。 リスクを下げるためには、機密情報の入力禁止規定の策定、APIや法人向け環境の活用、そして社内研修によるリテラシー向上が不可欠です。 高度な機密情報を扱う場合は、外部のネットワークにデータを出さないローカルLLMの活用が最も安全です。 生成AIは業務効率化の強力な手段となりますが、情報セキュリティの確保が前提となります。安全な生成AIツールの選定や開発にご関心がありましたら、株式会社EQUESまでお問い合わせください。 AI導入に関する無料相談はこちらから
情報漏洩を防ぐ「ローカルLLM」開発の全貌|要件・RAG構築・導入ステップまで徹底解説
2026.04.02
「社内の機密データを保護した状態で生成AIを活用したい」 「クラウド型APIに依存せず、自社環境で完結するAIシステムを構築したい」 「情報漏洩リスクを物理的に遮断できる方法を知りたい」 こうしたコンプライアンス要件やシステム要件を抱える情報セキュリティ責任者様やプロダクトマネージャー様の間で、現在「ローカルLLMの開発」への需要が高まっています。 クラウド型のAIサービスは、入力データがインターネット経由で外部のサーバーに送信される構造上、セキュリティポリシーが厳格な環境では導入が困難なケースが存在します。その解決策となるのが、自社のサーバーや端末内で完結して動作するローカルLLMです。 ※ローカルLLMについて詳しく書いた記事はこちらをご覧ください→ローカルLLMとは? 開発・導入からPCスペックまで徹底解説 | EQUES 本記事では、ローカルLLMの導入に必要なハードウェア要件(CPU・GPUの役割)、推奨ツール、社内データを統合する「RAG」や「ファインチューニング」の技術的差異、そしてPoCから本番環境への移行プロセスを解説します。これを読めば、セキュリティ要件を満たしたAI開発の全体像と、自社に必要な環境構築の手順が明確になります。 AIに関する無料相談はこちらから 1. なぜ今「ローカルLLM」なのか?クラウド型との決定的な違い まずは、一般的なクラウド型LLMと、自社環境で稼働させるローカルLLMの構造的な違いについて解説します。 1. セキュリティの確保:データが外部へ送信されない構造 クラウド型AIを利用する場合、データはAPI(ソフトウェアやプログラム同士をつなぎ、情報をやり取りするための「窓口」の仕組み)を経由して外部のサーバーで処理されます。 一方、ローカルLLMは、ネットワークから切断されたオフライン状態でも動作します。処理は目の前のPCや自社ネットワーク内のサーバーで完結するため、入力した機密情報や個人情報が外部へ送信されることはありません。この外部通信の遮断により、情報漏洩リスクを根本的に排除できる点が、医療や金融などの分野でローカルLLMが選ばれる理由です。 2. カスタマイズの実現:自社専用のAI環境構築 ローカルLLMを開発・導入することで、特定の業務に特化した独自のシステムを構築できます。社内の規定やマニュアルを参照する自動応答システムの運用や、外部ネットワークの障害に影響されない安定したシステムの稼働が可能になります。 製薬品質保証のGMP文書業務効率化SaaS「QAI Generator」なども、専門分野の要件に適合させたAI活用の実例です。 3. SLM(小規模言語モデル)という選択肢 ローカル環境で稼働させる際、パラメータ数を抑えたSLM(小規模言語モデル)を採用することも可能です。SLMは特定のタスクに特化しており、限られた計算リソースでも高速な推論処理を実行できるため、要件に応じたモデルの選択が重要になります。 2. 失敗しない「ハードウェア選定」と推奨ツール ローカルLLMの開発において、ハードウェアの構成は処理速度に直接影響します。 1. CPUとGPUの役割分担 LLMの推論処理においては、CPUとGPUの機能の違いを理解する必要があります。CPUはシステム全体の制御や順次処理を担当します。一方、GPUはLLMの推論に不可欠な大規模な行列計算を並列で実行します(帯域幅が広い)。実用的なトークン生成速度を得るためには、GPUによる処理が必須となります。 2. 推論処理に必須となる「VRAM」の要件 モデルを稼働させる上で最も重要な指標がGPUのVRAM(ビデオメモリ)容量です。例えば、パラメータ数が70億(7B)規模のモデルを稼働させる場合、最低でも8GBのVRAMが要求されます。より大規模なモデルや高速な処理能力が求められる要件では、24GB以上のVRAMを備えたハイエンドGPUや専用ワークステーションの導入が必要になります。 3. 開発・検証を効率化する主要ツール ローカル環境の構築には、以下のツールが広く利用されています。 Ollama: コマンドライン上でローカルLLMの構築と実行を行うオープンソースツール。Windows、macOS、Linuxに対応しています。 LM Studio: GUI(グラフィカルユーザーインターフェース)を備え、モデルのダウンロードから実行までを視覚的に操作できるソフトウェアです。 Dify: RAG機能やプロンプト生成機能を搭載し、AIアプリケーションの開発を効率化するオープンソースのプラットフォームです。 vLLM: 高速かつメモリ効率に優れたLLM推論・サービングエンジン。独自の「PagedAttention」技術により、メモリの無駄を最小限に抑え、非常に高いスループット(処理能力)を実現しています。 3. 「RAG」と「ファインチューニング」で自社データをAIに統合する ローカルLLMに自社の固有データを反映させる技術には、主に2つのアプローチがあります。 1. モデルのパラメータを更新するファインチューニング ファインチューニングは、特定のデータセットを用いてLLM自体を再学習させ、内部のパラメータ(重み)を直接更新する手法です。特定のドメイン知識や独自の出力フォーマットをモデルに定着させる場合に採用されます。RAGと比較して、計算処理に要する高性能なGPUリソースと、品質の高い学習データを用意するコストが発生します。 2. 外部データベースを検索するRAG(検索拡張生成) RAGは、ユーザーの入力に対して事前に構築したデータベースから関連情報を検索し、その結果をプロンプトに結合してLLMに回答を生成させる手法です。 ドキュメントを数値ベクトル化する埋め込み(embedding)モデルや、検索結果の関連性を再評価するリランキング技術を利用します。モデル自体のパラメータは変更しないため、最新情報の反映が容易であり、計算リソースの消費を抑えることができます。 更新が必要な社内規定や社内の情報を盛り込む際は、RAGの方が適していると言えるでしょう。 4. 導入プロセスと自社に最適な環境構築 1. PoC(概念実証)による段階的な検証 ローカルLLMの開発は、スモールスタートによるPoCから開始します。少数の端末にOllamaやLM Studioを導入し、「要件を満たす回答精度が得られるか」「対象ハードウェアで実用的な推論速度が出力されるか」を検証します。 2. TCO(総所有コスト)の算出と運用体制 検証結果をもとに、本番環境への移行に向けたTCOを算出します。ローカルLLMはクラウドAPIの従量課金コストが発生しない反面、サーバーやGPUの初期導入費用、稼働時の電力コスト、保守管理の人的コストが必要となります。同時に、オンプレミス環境におけるデータ保護の基準やアクセス権限の管理体制を整備します。 3年間のTCO(総所有コスト)算出例 ローカルLLMを自社サーバーで構築し、社内専用のRAGシステムとして3年間運用した場合のTCO算出例です。700億(70B)パラメータ規模のオープンソースモデルを推論させる想定です。 費用区分項目費用目安(概算)内訳・備考初期費用 (CAPEX)ハードウェア調達費3,000,000円 〜 5,000,000円AI推論用サーバー1台(高性能CPU、VRAM 48GB以上のGPU×2基程度)、ストレージ、ネットワーク機器など初期開発・環境構築費2,500,000円 〜弊社のPoCサービス「ココロミ」スタンダードプランの適用を想定。モデル選定、RAG構築、プロンプト調整など運用費用 (OPEX)保守・システム管理費(年額)1,200,000円 〜 / 年死活監視、モデル更新、セキュリティ対応。※自社対応の場合は人件費として換算電力費・空調費(年額)150,000円 〜 / 年GPUの消費電力および冷却費。稼働率により変動3年間総額TCO(3年目安)約9,550,000円 〜初期費用 +(運用費用 × 3年)の概算合計 クラウドAPIを利用したLLMサービスの場合、初期のハードウェア費用はかかりませんが、利用規模が拡大するにつれて従量課金のランニングコストが増加します。ハードウェアの償却期間を考慮し、中長期的な利用計画に基づいてクラウド型とローカル型のコスト分岐点を見極めることが重要です。 同時に、社内のセキュリティポリシーやコンプライアンス要件に適合しているかどうかも確認し、オンプレミス環境でのデータ保護やアクセス権限の管理体制を整備します。 5. まとめ:専門家による伴走型技術開発の活用 本記事では、セキュリティを確保したローカルLLM開発の技術要件について解説しました。 オフライン稼働により、情報漏洩リスクを物理的に排除することが可能。 推論処理にはGPUの並列計算能力が不可欠であり、モデル規模に応じたVRAM容量の要件を満たす必要がある。 自社データの統合手法として、外部検索によるRAGと、パラメータ更新によるファインチューニングを要件に応じて選択する。 PoCによる検証を経て、ハードウェア要件とTCOを明確化した上で本番環境へ移行する。 ローカルLLMの開発やRAG環境の構築には、高度な技術的知見が要求されます。自社に最適なAI開発の進行について支援が必要な場合は、株式会社EQUESのサービスをご活用ください。 AI×DX寺子屋: AIに関する技術的な課題に対し、東大出身のAI専門家集団がチャットで解決策を提示するサービスです。 ココロミ: 大規模開発を行う前の段階として、技術的な検証を行うPoCサービスを提供しております。 貴社のセキュリティ要件や業務課題に適合したAI導入プランをご提案いたします。詳細な要件定義や環境構築について、ぜひお気軽にお問い合わせください。 AIに関する無料相談はこちらから