2026.03.11 【イベント】「ファーマIT&デジタルヘルス エキスポ 2026」出展のお知らせ
助田 一晟 創業者&取締役 CTO、岸 尚希 創業者&代表取締役 CEO

Message

最先端の機械学習技術と
実務現場を結ぶ架け橋に

EQUESは、東京大学松尾研究室発のAIスタートアップとして、
最先端の機械学習技術と実務現場を結ぶ架け橋となることを目指しています。

研究開発の最前線で生まれる技術を、
実際の業務現場で活用可能な形に昇華させ、
社会の発展を加速させることが私たちのミッションです。

Read More

News

View All

Service

EQUESのサービス

創出力、価値変換力、スピード

EQUESは、高い専門性による創出力を、現場への価値変換力とスピードによって、
シームレスに産業へとつなげることを強みとしています。

Read More
伴走型技術開発

伴走型技術開発

お客様の課題に寄り添い、要件定義から運用まで一気通貫でサポート。最先端のAI技術を活用し、現場に最適化されたソリューションを提供します。

Read More

伴走型技術開発
サービス一覧

伴走型技術開発

製薬AI事業

製薬業界における様々な業務課題を、生成AIによる技術開発や業務支援プロダクトによって解決します。

Read More

製薬AI事業
サービス一覧

取引実績

EQUESは多くの企業とパートナーシップを結んでいます。 ※一部抜粋

Example

お取引事例

AI×DX寺子屋|茨城県立竜ヶ崎第一高校・附属中学校で「未来の教室」を開催

AI×DX寺子屋|茨城県立竜ヶ崎第一高校・附属中学校で「未来の教室」を開催

2025.11.17

中高生が「AIエージェント」で地元企業の課題解決に挑む 株式会社EQUESは、2025年10月18日に茨城県立竜ヶ崎第一高等学校・附属中学校(以下、竜ヶ崎第一高校・附属中学校)で開催された「ホンモノのキャリア教育プログラム」において、「未来を拓くAI×人のチカラ」をテーマにした特別授業を実施しました。本授業は、生徒がAIの現代ビジネスにおける重要性や最先端技術「AIエージェント」について理解を深め、地元企業のリアルな課題解決に挑む、新しい形のAI×ビジネスワークショップとして展開されました。 開催の背景:学校の想いとEQUESの「AI×DX寺子屋」 今回の特別授業は、同校の太田垣校長先生から頂いた「次世代を生きる生徒たちに“ホンモノ”のキャリア教育を提供したい」というご相談がきっかけとなりました。 このご要望に対し、弊社が推進するAI相談サービス「AI×DX寺子屋」のカスタマイズプランを活用。「ビジネスにおけるAIエージェントの台頭」という未来を見据え、AIと“協働”するとはどういうことかを考える、未来創造型のAI×ビジネス授業として実施する運びとなりました。 また、地元企業の実際の課題を題材にすることで、生徒の柔軟な発想が企業に新たな視点をもたらすとともに、生徒自身の地元企業への理解と愛着をも深める、地域全体でのWin-Winな関係構築を目指しました。 【ご協力いただいた地元企業・研究機関様のご紹介(一部:掲載許可を頂いた企業様のみ)】 国立研究開発法人日本原子力研究開発機構 様 株式会社 常陽銀行 様 株式会社タナカ 様 高エネルギー加速器研究機構 様 一誠商事株式会社 様 授業概要:AIエージェントで未来のビジネスをデザインする 当日の授業は、講義とワークショップの二部構成で実施しました。 1. 講義:AIとビジネスの関係 授業前半では、当社スタッフが登壇。EQUESが手掛ける「伴走型技術開発」や「製薬AI事業」などの具体的なAIソリューション事例を紹介するとともに、「なぜ今、ビジネス環境にAIが必要なのか」、そして「AIエージェント」という最先端技術が未来をどう変えるかについて解説しました。AIが単なるツールではなく、ビジネスのあり方そのものを変革する力を持っていることを伝えました。 2. ワークショップ:AIエージェントを活用して地元企業の課題を解決する 後半は、3〜4人のグループに分かれ、「地元企業の課題を分解し、それを解決するAIエージェントを考える」というテーマで実践的なワークショップを実施。生徒たちはAIやPCツールを積極的に活用しながら活発に意見を交換しました。最終的には溢れたアイデアをワークシートにまとめ、教室に設置されたモニターを使って発表を行いました。 (↑写真:常陽銀行様のワークシートの例。生徒は、若者と高齢者など、世代や環境によってサービスを利用したくなる条件は大きく異なっているため、それぞれに合った施策が必要だと考え提案を行いました。) 授業の雰囲気:技術的な質問が飛び交う、ハイレベルな議論 初対面のグループが多い中、すぐに打ち解けて目標に向けた建設的な話し合いが始まり、和気藹々とした雰囲気ながらも白熱した議論が展開されていました。 生徒の皆さんからは沢山の新しい発想が提案され、「アイデアはたくさん出るが、どう企業のサービスと合致させていけばいいのか」などといった発展的な悩みの声が聞かれるなど、その想像力の豊かさには驚かされました。 また、講師陣に寄せられた質問は、「その技術は具体的にどうやって実現するのか?」「ビジネスとしての実現可能性は?」といった、技術的な側面や事業性にまで踏み込むハイレベルなものばかりでした。 (↑写真:講義中の雰囲気。生徒様は熱心に授業に耳を傾け、新しいAIエージェント技術の概要に興味津々でした。) 校長:太田垣先生のコメント 飛ぶ鳥を落とす勢いのAIビジネスから中高生のために貴重なお時間をいただき、心より感謝申し上げます。「AIエージェント」というリクエストに応え、単なる座学ではなく動きながら身に付けるワークショップ型の講座にまとめ上げていただいた情熱と使命感に敬意を表します。準備や進行についても教職員と緻密な調整を重ねていただき、参加した生徒・保護者にも大満足の質の高い講座を一緒に作り上げることができました。 私たち竜一は今後も時代の先頭を走る生徒たちを育てていきます。今後ともどうぞよろしくお願いいたします。 EQUESより:未来のイノベーターたちへの期待 今回、竜ヶ崎第一高校・附属中学校という非常に意欲的な生徒の皆さんとお会いでき、私たち自身も大きな刺激を受けました。 「AIエージェント」は、まだ社会に普及し始めたばかりの新しい技術です。それを中高生のうちからビジネスの視点で考え、具体的な実現可能性まで踏み込んで質問する生徒たちのポテンシャルに、深く感銘を受けています。 今回の授業が、生徒の皆さんが未来のイノベーターとして羽ばたくための一助となれば幸いです。EQUESは今後も、最先端のAI技術を社会に結ぶ架け橋となる活動を続けてまいります。 今回の授業を実現した「AI×DX寺子屋」について 「AI×DX寺子屋」は、東大生・東大出身者が7割を占めるEQUESのメンバーが、AIやDXに関する素朴な疑問や困りごとをチャットで回答し、お客様のAI活用やDX推進をサポートするサービスです。 AI専門家集団への相談し放題、AIツールの活用提案を特徴とする月額制の「プランA」のほか、今回のようなAI人材研修の実施、技術顧問、開発支援など、お客様の要望に応じて柔軟に内容を決定する「プランB(応相談)」も提供しています。 皆様がAIと歩む未来を創造する一助となれば幸いです。 AI×DX寺子屋の詳細はこちら

SOLIZE PARTNERSが語る、製造業のDXにおけるAI活用のはじめの一歩

SOLIZE PARTNERSが語る、製造業のDXにおけるAI活用のはじめの一歩

2025.10.31

■導入企業の紹介 SOLIZE PARTNERS株式会社(以下SOLIZE PARTNERS)は、日本で初めて3Dプリンターを導入して以来、長年にわたり日本のものづくりを支えているデジタルエンジニアリングのパイオニアです。昨今は社内のデジタルトランスフォーメーション(DX)にも取り組まれており、熟練技術のデジタル化による普及やAIを活用した新しいソリューション開発に注力されています。このたび、株式会社EQUESは、SOLIZE PARTNERSのAI技術導入による課題解決を支援するため、AI PoC(概念実証)サービス『ココロミ』を提供いたしました。導入から運用までの様子をインタビューさせていただきましたので、AI技術導入をお考えの方はぜひご一読ください。 ■SOLIZE PARTNERSの課題 SOLIZE PARTNERSがAI技術の導入において抱えていた課題は、「熟練技術者の頭の中にある情報をどうやってシステム化するか」というものでした。 AIによるDXを進めるにあたって、これまで熟練者が経験によって培ってきた感覚的で言葉にならないノウハウを、いかにAIのシステムに組み込み、活用に漕ぎつけるかという課題は、SOLIZE PARTNERSに限らずものづくり業界全体のDXにおける大きなボトルネックとなっています。 AI導入のプロジェクトを始めるにあたって、この課題を解決するべく、PoC(概念実証)からその分析、アクションプランの策定までを包括的に行う弊社サービス「ココロミ」が導入されました。 ■導入の経緯 「熟練技術者の頭の中にある情報をどうやってシステム化するか」という課題の中で、AIを活用する目的として立ち上がったのが「複数視点からの画像入力を用いた部品特徴の網羅的な検出」というテーマでした。 このテーマを軸に、SOLIZE PARTNERSとEQUESの共同検討がスタートしました。 ココロミを導入する決め手は、弊社が3D生成に関する豊富な経験を有していたことでした。例えば、株式会社セガ様との事業においては、ユーザが簡単なキーワード入力を行うだけでボクセル形式の3Dモンスターを生成するAIを開発した実績があります。(詳しくはこちら)。この開発をSOLIZE PARTNERSに認知していただいたことがご縁となり、共同開発が実現しました。 ■導入後の成果 ココロミでは、以下の2つのテーマでPoC(概念実証)を実施し、それぞれに新たな成果を得ることができました。 取り組み1:設計ナレッジの提案支援 最初の取り組みでは、特定の形状データから特徴を抽出し、それをもとに設計ナレッジを自動で提案するAIの実現性を検証しました。その結果、開発現場で直接活用できるレベルの設計知識をAIが提示できることを確認。従来のように過去資料や文献を検索する手間をかけずに、設計のヒントを得られるようになり、知見の再利用性が大きく高まりました。 取り組み2:3D CADデータの自動生成 次の取り組みでは、自然言語による指示からAIが適切な3D CADデータを生成できるかどうかを検証しました。その結果、単純な形状や構成であればAIによる自動生成が可能であることを確認しました。一方で、複雑な形状を扱う際には、構成部品となる要素データを事前に十分整備しておく必要があることも明らかになり、今後の改善の方向性が見えてきました。これらの検証を通じて得られた成果は、SOLIZE PARTNERSにおけるAI活用を現場レベルへ展開するための第一歩となりました。 ■ココロミ導入を通しての感想 ココロミの推進において、EQUESの徹底した伴走が大きな安心感につながったとのお言葉をいただきました。開発中、多くの技術的懸念や疑問に対し、担当PMエンジニアが都度、論理的な裏付けをもって丁寧に説明させていただきました。技術的な不確実性のあるテーマであったからこそ、一貫した伴走と安心感が、『ココロミ』の提供価値を高め、開発を成功に導くための心の支えとなったと評価いただいています。 さらに、AIという新しい技術への挑戦は、社内への新しい風となり、社員の意識を新たにする理由に繋がりました。 単なる技術検証に留まらず、AI活用に対する社内全体の意識を変革するという、文化的な成果も生まれました。 ■今後の展望 今回の『ココロミ』を通じて得られた知見と信頼関係を基に、SOLIZE PARTNERSはAI技術の応用をさらに深化させていく意向を示されています。 SOLIZE PARTNERS側の担当者様は、「ぜひ次の取り組みをやりたい」と力強く語り、自社の取り組みを継続していく決意を表明されました。 そして、今後の重要なテーマの一つとして、XAIの必要性が挙げられました。 (XAIとは…「説明可能なAI(Explainable AI)」の略。AI、特にディープラーニングは、なぜその結論に至ったのかという判断プロセスが複雑で、人間には理解しにくい「ブラックボックス」状態になることがある。XAIは、このブラックボックスの中身に説明を与え、AIの判断根拠や理由を人間が理解できる形で示すための技術やその研究分野を指す。AIの信頼性と透明性を高め、医療や金融、自動運転など、高い安全性が求められる分野で公正に活用されることを目指している。) SOLIZE PARTNERS側の担当者様は、「ブラックボックスになってしまいがちなAIの判断に説明の有無があることで、現場での意思決定に使えるかどうかは大きく変わる」と、実務における説明責任の重要性を強調されました。 株式会社EQUESは、『ココロミ』を通じて培われた具体的な知見と技術的な基盤をもとに、SOLIZE PARTNERSの新たな価値創造と産業の高度化を引き続き力強く支援してまいります。 SOLIZE PARTNERS HPにて、弊社CEO岸および本プロジェクトPMの村山のインタビューが掲載されております。詳しくはこちらからご覧ください。

AI-OCRで製造現場の記録を自動化|Cyto-Factoの導入事例

AI-OCRで製造現場の記録を自動化|Cyto-Factoの導入事例

2025.10.23

―導入した会社の紹介 Cyto-Facto(サイトファクト)は、神戸に拠点を置く細胞・遺伝子治療分野に特化したCDMO企業です。FBRIの細胞治療研究開発センターを継承し、PIC/S GMP準拠の製造体制を整備。開発から製造、品質試験まで一貫支援し、独自のシステムによるDX推進で、安全かつ高品質な先端治療の社会実装を目指しています。 ― 今回のプロジェクトを始められた背景について教えてください。 製造現場では、通信機能のない機器が多く残っており、液晶パネルや制御PCの画面に表示される情報を作業員が手作業で記録していました。従来のOCR技術では操作が難しい上、読み取り精度も不安定で、業務効率化には限界があったのです。そこで私たちは、AI-OCR技術を活用し、画像認識とデータ抽出の精度向上を目指すプロジェクトを立ち上げました。 ― 具体的にはどのような取り組みをされたのでしょうか? まず、液晶パネルや制御PC画面から取得した画像データをAI-OCRで読み取り、MESやLIMSへ自動入力する仕組みを検討しました。さらに、UIモック版やクラウド版のOCRシステムを開発し、音声入力によるデータ修正機能(日本語・英語対応)も実装しています。また、GMP/GCTP規制を考慮したインターフェース設計にも取り組みました。 ― 開発パートナーにEQUESを選ばれた理由は何ですか? EQUES様は高精度AI-OCR技術の開発実績を持ち、医療や製造分野でのGMP対応経験が豊富でした。また、オフライン環境でのOCR対応力やMES/LIMSとの連携を見据えた提案力・技術力も魅力的でした。複数の課題に対し具体的な解決策を提示していただいたことも大きな決め手です。 ― これまでにどのような成果が得られていますか? UIモック版OCRの社内動作を確認済みで、音声入力によるデータ修正機能のデモも実施しました(日本語・英語対応)。さらに、GPTモデルを活用したクラウド版OCRの開発も進行中です。サンプル画像では100%の認識精度を達成しており、GMP対応を見据えた修正履歴管理機能の設計にも着手しています。 ― 現場からの反応はいかがでしょうか? 「計画通りに開発が進んでいる」「進捗共有がタイムリーで非常にスムーズ」「本開発に向けた準備が円滑に進んだ」といった声が多く寄せられています。現場にとっても大きな期待感につながっていると感じています。 ― 今後の展望を教えてください。 今後は、GMP/GCTP対応を含めたインターフェース設計の詳細化を進めていきます。さらに、iOSやAndroidに対応したアプリの開発や、動画・動的テロップの認識といった新たな機能拡張にも取り組んでいく予定です。

View All

Member

メンバー

  • 岸 尚希 創業者&​代表取締役 CEO

    東京大学大学院.ex 松尾研プロジェクトマネジャー.
    松尾研起業クエスト1期生.
    松尾研チーフAIエンジニアとして企業との共同研究に従事.その後,現実世界と情報学の融合を志し,計数工学科在学時にEQUESを創業.専門はシステム情報学,特にテラヘルツ波通信とハプティクス(触覚技術).

  • 助田 一晟 創業者&取締役 CTO

    東京大学大学院. ex 松尾研プロジェクトマネジャー
    松尾研起業クエスト2期生.産総研「覚醒」事業採択.
    AIビジネスコンテスト全国優勝後,計数工学科で現CEO岸と出会いEQUESを創業.
    専門は数理情報学であり,クラスタリング最適化や医療AI分野の研究でトップジャーナルや国際会議に採択されている.

松尾 豊

Advisor

アドバイザー

松尾 豊

技術顧問

2007年より,東京大学大学院工学系研究科准教授. 2019年より教授. 専門分野は,人工知能,深層学習,ウェブマイニング. 人工知能学会からは論文賞(2002年),創立20周年記念事業賞(2006年),現場イノベーション賞(2011年),功労賞(2013年)の各賞を受賞. 2020-2022年,人工知能学会,情報処理学会理事. 2017年より日本ディープラーニング協会理事長. 2019年よりソフトバンクグループ社外取締役. 2021年より新しい資本主義実現会議 有識者構成員. 2023年よりAI戦略会議座長.

Column

コラム

ローカルLLM メリット セキュリティ・コスト・判断基準を解説

ローカルLLMのメリットとは?セキュリティやコスト、導入の判断基準を解説

2026.03.23

AI活用が急速に進む中、「機密データをクラウドに送るのは不安」「独自のカスタマイズをしたい」というニーズが高まっています。そこで注目されているのが、自社環境でAIを動かす「ローカルLLM」です。 本記事では、ローカルLLMを導入する具体的なメリットから、クラウドLLMとの徹底比較、失敗しないための導入手順まで、専門家視点で分かりやすく解説します。 【この記事を通してわかること】 ローカルLLMとは何か・注目の背景 ローカルLLMのメリット ローカルLLMかクラウドLLMかの判断基準 かんたん診断(画像つき) ローカルLLM導入手順 東大松尾研発のAIスタートアップである弊社EQUESの知見をもとに、初心者の方でも全体の流れを把握できるよう構成しました。 AIに関する無料相談はこちらから 1. ローカルLLMとは?仕組みと注目される理由 ローカルLLMとは、OpenAIのChatGPTのようなクラウドサービスを経由せず、自社のサーバーやPC(ローカル環境)に大規模言語モデル(LLM)を構築・運用する形態を指します。 1.1 ローカルLLMの仕組みと全体図 通常、私たちが利用しているAIツールはクラウドLLMです。クラウドLLMは、インターネット越しに外部サーバーへデータを送信して、「外部のAIツール」が処理を行います。一方、ローカルLLMは自社内のハードウェア上でAIモデルを動かすため、データが外部に出ることはありません。 (ローカルLLMについて詳しく解説した記事はこちらをご覧ください!) https://eques.co.jp/column/local-llm/ 構成としては、高性能なGPU(画像処理装置)を搭載したサーバーに、オープンソースとして公開されているモデルをインストールして利用するのが一般的です。 1.2 なぜ今、ローカルLLMが選ばれるのか 背景には、Meta社のLlamaシリーズやMistral、DeepSeekといったオープンソースモデルが、特定のベンチマークで商用モデル(GPT-4など)に匹敵するスコアを叩き出すようになったことがあげられます。これにより、従来は莫大な開発費が必要だった高度なAIを、比較的簡単にカスタマイズして自社所有することが現実的になりました。 2. ローカルLLMを導入する4つの大きなメリット 多くの企業がローカルLLMに関心を寄せる理由は、クラウド型にはない独自の利点があるからです。ここでは主要な4つのメリットを解説します。 2.1 究極のデータセキュリティとプライバシー保護 最大のメリットは、データが社外に一切出ないことへのセキュリティ上の安心感です。 機密情報の保持: 顧客情報や独自の技術ノウハウをAIに学習・参照させても、外部漏洩のリスクがありません。 コンプライアンス対応: 厳しい業界規制がある金融や医療、製薬分野でも導入が容易です。 2.2 レイテンシ(応答速度)の低減とオフライン利用 クラウドを経由しないため、ネットワークの混雑状況に左右されず安定したレスポンスが得られます。また、インターネットに接続できない環境や、極めて高いリアルタイム性が求められる製造現場でのエッジAI活用にも適しています。 2.3 カスタマイズとチューニングの自由度 特定の業務に特化させるための「ファインチューニング(追加学習)」や、社内文書を検索させる「RAG(検索拡張生成)」の構築において、モデルの内部構造まで自由に触れる点は強力な武器となります。 2.4 長期的なコストパフォーマンス(TCO) クラウドLLMは利用量に応じた「トークン課金」が一般的ですが、ローカルLLMは初期費用(サーバー代等)こそかかるものの、使えば使うほど1回あたりのコストは下がります。大量のデータを24時間処理し続けるような用途では、ローカルの方が経済的です。 例えば、「クラウドAIのAPI利用料が月間30万円(年間360万円)を超えている場合、約300万円のAI用サーバーを自社購入してローカルLLMに切り替えれば、1年以内で初期投資の元が取れる」といったシミュレーションも可能です。大量のデータを24時間処理し続けるような用途では、ローカルの方が圧倒的に経済的です。 3. クラウドLLMとの比較:どっちを選ぶべき? 導入を検討する際、クラウド型とローカル型をどう使い分けるべきか悩まれる方も多いでしょう。以下の表に主な違いをまとめました。 比較項目クラウドLLM (ChatGPT等)ローカルLLM初期費用ほぼゼロ(月額料金のみ)高い(サーバー・GPU購入費)運用負荷低い(ベンダー任せ)高い(自社で保守・管理が必要)セキュリティ設定次第だが、リスクは残る非常に高い(完全閉域が可能)性能常に最新・最高峰を利用可能モデルによる(ハード制約あり)カスタマイズ制限あり自由自在 使いどころの判断基準 クラウドLLMが向いている場合: 汎用的な事務作業、初期費用を抑えてスモールスタートしたい場合。 ローカルLLMが向いている場合: 極めて高い機密性を要する業務、自社専用の高度なチューニングが必要な場合。 4. あなたの会社にローカルLLMは向いている?かんたん診断 導入後に「やはりクラウドで十分だった」と後悔しないために、以下のチェックリストで診断してみましょう。 外部に一切出せない極秘データをAIに扱わせたい。 1日の利用量が極めて多く、API利用料が予算を圧迫している。 社内独自の専門用語や、特殊な形式の文書が非常に多い。 ネットワーク遅延が許されない、高速な自動応答が必要。 社内にGPUサーバーを運用・管理できる技術者がいる(またはパートナーがいる)。 3つ以上チェックがついた場合、ローカルLLMの導入検討を強くおすすめします。 逆に、汎用的なメール作成や要約がメインであれば、まずはクラウド型の法人プランから始めるのが賢明です。 5. 失敗しないためのローカルLLM導入手順 ローカルLLMの導入は、ハードウェアの選定からソフトウェアの構築まで多岐にわたります。 5.1 ステップ1:要件定義とハードウェアの選定 モデルのサイズ(パラメータ数)によって必要なVRAM(ビデオメモリ)が変わります。 小規模モデル(7B〜8Bクラス): RTX 4090 (24GB) 1枚程度 中規模・大規模モデル: A100 や H100 などのデータセンター向けGPU 5.2 ステップ2:モデルの選定と検証(PoC) オープンソースモデル(Llama, Mistral, Qwenなど)から、用途に合ったものを選び、プロンプトの反応や精度を確かめます。 5.3 ステップ3:RAGやファインチューニングの実施 社内データを活用する場合、まずは「RAG」という仕組みで外部知識を参照させるのが一般的です。より専門的なトーンや知識を定着させたい場合にのみ「ファインチューニング」を検討します。 ファインチューニングについて詳述した記事もございますので、詳しくはこちらをご覧ください。 6. AI導入でお困りの際は、株式会社EQUESへご相談ください ローカルLLMの導入は、高いメリットがある一方で、技術的なハードルやハードウェアコストの判断が難しい分野でもあります。 株式会社EQUESは、東京大学松尾研究所発のベンチャーとして、AIを用いた「伴走型技術開発」を行っています。特に高い専門性が求められる製薬分野をはじめ、多くの企業のAIニーズをサポートしています。 AI×DX寺子屋: 東大出身の専門家集団が、チャットでAIに関する困りごとを解決します。月額20万円から相談し放題です。 ココロミ: 本格導入前のPoC(概念実証)をスピーディに行い、失敗しないAI投資をサポートします。 QAI Generator: 製薬業界のGMP文書作成を効率化する、専門性に特化したAIソリューションも提供しています。 「自社に最適な構成は?」「コストは見合う?」といった疑問をお持ちの方は、ぜひ一度お問い合わせください。 7. まとめ ローカルLLMの導入は、セキュリティの強化だけでなく、自社独自の価値を創出するための強力な手段となります。 【本記事のポイント】 セキュリティ: データが外部に漏れないため、機密情報を安心して扱える。 自由度: 自社専用にカスタマイズやチューニングが可能。 コスト: 大量利用時にはクラウド型よりも安価になる可能性がある。 判断: 診断リストを活用し、本当に自社に必要かを見極めることが重要。 AIは「導入すること」が目的ではなく、「ビジネスの課題を解決すること」がゴールです。貴社にとって最適なAIの形を、一緒に見つけていきましょう。 AIに関する無料相談はこちらから

ローカルLLM ファインチューニング 必須スペック 環境 手順 AIの専門家が解説

ローカルLLMでファインチューニングを行う方法とは?手順や必要な環境を解説

2026.03.23

ビジネス現場でAI導入の需要が高まる中、「機密データを外部に出したくない」「自社独自の知識をAIに学習させたい」といった声も多く聞かれます。しかし、いざ始めようと思っても、人材不足や情報不足で足踏みしてしまう方も多いのではないでしょうか。 この記事では、ローカル環境でLLM(大規模言語モデル)をファインチューニングする具体的な手順や、必要なPCスペック、ツールについて丁寧に解説します。 【この記事を通してわかること】 ローカルLLMとはなにか ファインチューニングとはなにか:RAGの違い ファインチューニングに必要なもの(スペックや環境など) ファインチューニングの手順 トラブルシューティング 東大松尾研発のAIスタートアップである弊社、EQUESの知見をもとに、初心者の方でも全体の流れを把握できるよう構成しました。 AIに関する無料相談はこちらから 1. ローカルLLMとファインチューニングの基礎知識 まずは、なぜ今「ローカル環境」での「ファインチューニング」が注目されているのか、その背景を整理しましょう。 1.1 ローカルLLMを活用するメリット ローカルLLMとは、クラウドサービスを利用せず、自身のPCや自社サーバー上で動作させるAIモデルを指します。最大のメリットはセキュリティです。外部のAPIにデータを送信しないため、社外秘の情報や顧客データを安全に扱うことができます。また、一度環境を構築すれば通信コストを抑えられ、オフラインでの利用も可能になります。 (ローカルLLMについて詳しく解説した記事もございますので詳しくはこちらをご覧ください!) https://eques.co.jp/column/local-llm/ 1.2 ファインチューニングとは何か ファインチューニング(微調整)とは、学習済みのモデルに対して、特定のデータセットを追加で学習させる手法です。一般的なLLMは幅広い知識を持っていますが、以下のようなケースではファインチューニングが非常に有効です。 専門用語への対応: 医療や法務、特定の業界内だけで使われる特殊な用語を正しく理解・出力させたい場合。 出力形式の固定: 回答を必ず「JSON形式」や「特定のテンプレート」に従って出力させたい場合。 独自のトーン&マナー: 自社のブランドイメージに合わせた、特定の口調やキャラクター性を持たせたい場合 1.3 RAGとファインチューニングの違い よく比較される手法に「RAG(検索拡張生成)」がありますが、ファインチューニングとRAGには明確な違いがあります。 特徴ファインチューニングRAG (検索拡張生成)主な目的モデルの「振る舞い」や「形式」の習得最新・外部情報の参照知識の更新再学習が必要(コスト高)データベースの更新のみ(コスト低)得意なこと専門的な口調、特定の出力形式社内規程や最新ニュースの回答データの量質の高い数千件のペアが理想既存のPDFやドキュメントをそのまま利用 目的に応じて、これらを使い分ける(あるいは組み合わせる)ことが重要です。 2. ファインチューニングに必要な環境とスペック 2.1 ファインチューニングの要はGPU性能 AIが学習(ファインチューニング)を行う際は、高性能なGPUが使用されます。その理由は2つあります。 1. 膨大な「並列計算」をこなすため AIの学習は、数学的には非常に単純な「かけ算」と「たし算」を何兆回と繰り返す作業です。 CPU: 複雑な処理を順番にこなすのが得意な「少数のエリート集団」。 GPU: 単純な計算を数千個同時にこなせる「膨大な数の作業員」。 LLMのような大規模なモデルでは、この「同時並行で計算する能力」がスピードに直結します。CPUだけで学習させようとすると、数年かかる作業がGPUなら数日で終わるほどの差が生まれます。 2. 「VRAM(ビデオメモリ)」がモデルの置き場所になるため GPUスペックの中でも特に重要視されるのがVRAM(ビデオメモリ)の容量です。 DIYを行う際の作業机を想像してみてください。机が小さいと道具や材料を広げておけず、非常に不便な思いをすることでしょう。 AIの学習中は、AIモデル本体と学習データ、そして計算の途中で出た一時的な数値をすべて「広げて」置いておく必要があります。VRAMが足りないと、学習プログラムが動かずに停止してしまいます。 ◼︎推奨されるGPUとVRAM GPU: NVIDIA製のGPUが推奨されます。CUDAという独自プラットフォームが広く普及しているためです。 VRAM: 最低でも12GB以上(RTX 3060等)、本格的な開発なら24GB(RTX 3090/4090)や、A100/H100といった産業用GPUが理想的です。 メモリ(RAM): 32GB以上を推奨します。 2.2 活用すべきツールとライブラリ ローカルLLMのファインチューニングを支えるツールやライブラリは、「これらがないと事実上不可能」と言えるほど重要な役割を担っています。 それぞれのツールが具体的にどのような役割を果たしているのか、代表的なものを掘り下げて解説していきます。 ◼︎基盤となるフレームワーク まずは、AIの計算そのものを行うための土台です。 PyTorch(パイトーチ) 役割: 深層学習(ディープラーニング)の計算を行う中心的なライブラリです。 特徴: Pythonとの親和性が非常に高く、研究者やエンジニアの間でデファクトスタンダードとなっています。多くの最新LLMはPyTorchで書かれており、デバッグやカスタマイズがしやすいため、ファインチューニングでも第一選択となります。 TensorFlow(テンソルフロー) 役割: PyTorchと同様の役割を果たすGoogle製のフレームワークです。 特徴: 本番環境での大規模なデプロイや、Google Cloud/TPUを活用した環境に強みがあります。 ◼︎Hugging Face(ハギングフェイス)のエコシステム 現代のLLM開発は、Hugging Faceが提供する一連のライブラリなしには語れません。 Transformers 役割: Llama-3やMistralといったAIモデルや、テキストを数値に変換するトークナイザーを簡単にロードし、学習させるための共通APIを提供します。 PEFT (Parameter-Efficient Fine-Tuning) 役割: パラメータ効率の良い微調整を実現する最重要ライブラリです。 特徴: モデル全体の重みを更新するのではなく、LoRA(Low-Rank Adaptation)やQLoRA(Quantized LoRA)どの技術を使って、追加したごく一部のパラメータだけを学習させます。これにより、VRAM消費を劇的に抑えることが可能です。 VRAMが12GBならQLoRA(LoRAよりさらに軽量だが学習時間が長い)、24GB以上ならLoRAを視野にいれると良いでしょう。 TRL (Transformer Reinforcement Learning) 役割: 教師あり学習(SFT)や、人間のフィードバックによる強化学習(RLHF)を効率的に行うためのライブラリです。 ◼︎メモリと速度を最適化するツール 限られたローカルリソースを最大限に活用するための「補助エンジン」のようなツールです。 bitsandbytes 役割: モデルを「量子化(4bit/8bit)」するためのライブラリです。 特徴: QLoRAを実現する際に必須となります。モデルの精度を極力落とさずに、消費するVRAMを数分の一に削減します。 DeepSpeed / Accelerate 役割: 複数のGPUを使ったり、巨大なモデルを効率的に並列処理したりするための最適化ツールです。メモリの空きを賢くやりくりし、学習スピードを向上させます。 Unsloth 役割: 最近注目を集めている、ファインチューニングを2〜5倍高速化し、メモリ使用量もさらに削減するライブラリです。 ◼︎ツール活用の全体像 実際の開発現場では、これらを組み合わせて以下のように進めます。 PyTorchという計算土台の上で、 Hugging Face Transformersを使ってモデルを呼び出し、 bitsandbytesでモデルを軽くして(量子化)、 PEFT (LoRA)で特定の知識を効率よく学習させ、 TRLで学習の進行(Trainer)を管理する。 2.3 学習データの準備 ファインチューニングの成否はデータの質に依存します。 形式: JSONL形式などで「指示(Instruction)」と「回答(Output)」のペアを用意するのが一般的です。 量: タスクによりますが、数百〜数千件の高品質なデータがあれば、特定の傾向を学習させることが可能です。 3. ローカルLLMでファインチューニングする手順 それでは、具体的なローカルLLM ファインチューニングのやり方をステップごとに見ていきましょう。 3.1 まずはベースモデルの選定 まずはベースとなるモデルを選びます。日本語性能が高い「Llama-3」ベースのモデルや、Mistralなどが人気です。Hugging Faceなどでライセンスを確認し、商用利用が可能かチェックしましょう。 3.2 環境構築 Python環境を構築し、必要なライブラリをインストールします。 (参照元: PyTorch Official Installation Guide) 3.3 QLoRAによる学習の実行 VRAMを節約するために「QLoRA」の量子化手法を用いるのが一般的です(先述)。これにより、家庭用PCレベルのGPUでも、大規模なモデルを効率よく学習させることができます。 3.4 評価とテスト 学習が終わったら、意図した通りの回答ができるかテストします。過学習(特定のデータにだけ詳しくなり、応用が利かなくなる状態)が起きていないか確認することが大切です。 4. よくある失敗とトラブルシューティング スムーズに進めるために、あらかじめ落とし穴を知っておきましょう。 ◼︎メモリ不足(Out of Memory)への対処 学習中に「CUDA out of memory」というエラーが出ることがあります。これはGPUのメモリが足りないサインです。 対処法: バッチサイズを小さくする、モデルを量子化(4bit等)して読み込む、あるいはより軽量なモデルに変更することを検討してください。 ◼︎ 回答精度の低下(カタストロフィック忘却) 特定の知識を詰め込みすぎると、AIが元々持っていた一般的な会話能力が失われることがあります。 対処法: 元の学習データに近い汎用的なデータセットを混ぜて学習させる(リプレイ法)などが有効です。 5. まとめ 今回の記事では、ローカルLLMでのファインチューニングのやり方について解説しました。 ローカル環境なら、セキュリティを確保しながら自社専用AIを作れる GPUスペック(特にVRAM)が成功の鍵を握る QLoRAなどの技術を使えば、限られたリソースでも効率的に学習が可能 自社での導入やPoCについて、「もっと具体的に相談したい」「技術的なサポートが欲しい」とお考えの際は、ぜひ株式会社EQUESへお問い合わせください。弊社は東京大学松尾研究所発のスタートアップとして、製薬分野をはじめとする高度なAI技術開発を支援しています。 特に「AI×DX寺子屋」では、月額20万円から東大出身の専門家にチャットで相談し放題のプランもご用意しております。まずは小さな一歩から、貴社のAI活用をサポートさせていただきます。 AIに関する無料相談はこちらから

ローカルLLM おすすめ RAG スペック 商用利用

ローカルLLMのおすすめモデルと導入の全貌!スペック・商用利用・RAG構築まで徹底解説

2026.02.06

「社内の機密データを守りながら、話題の生成AIを活用したい」 「ChatGPTの利用料が社員数分かさみ、コスト削減を迫られている」 「インターネットがつながらない現場でもAIを使いたい」 こうした切実な課題を抱える企業の経営者様やDX担当者様の間で、今、「ローカルLLM(大規模言語モデル)」への注目が急速に高まっています。 クラウド型のAIサービスは手軽ですが、データが外部サーバーに送信されるという構造上、セキュリティポリシーの厳しい企業や、顧客のプライバシー情報を扱う現場では導入のハードルが高いのが現実です。また、API利用料という変動費も経営の予見性を下げる要因となります。 そこで解決策となるのが、自社のPCやサーバー内で完結して動作する「ローカルLLM」です。 本記事では、2025年を見据えた最新の「ローカルLLM おすすめモデル」の徹底比較から、失敗しないためのPCスペック選定、社内データを読み込ませる「RAG」の構築、そして導入後の運用リスクまで、必要な知識を網羅的に、かつ専門用語を噛み砕いて解説します。 これを読めば、なぜ今ローカルLLMが選ばれるのか、そして自社にはどのモデルと機材が必要なのかが明確になるはずです。 (ローカルLLMの仕組みについて詳しく解説した記事はこちらからご覧いただけます!) AI導入の無料相談はこちらから なぜ今「ローカルLLM」なのか?クラウド型との決定的な違い まずは、ChatGPTやGeminiなどの「クラウド型」と、今回ご紹介する「ローカル型」の本質的な違いについて、ビジネスの視点で深掘りします。 1. 鉄壁のセキュリティ:データは一歩も外に出ない クラウド型AIの最大のリスクは、入力したデータが学習に利用されたり、サーバーへの通信経路上で漏洩したりする可能性がゼロではない点です。規約で「学習しない」とされていても、コンプライアンス部門の許可が下りないケースは多々あります。 一方、ローカルLLMは、インターネット回線を切断した状態(オフライン)でも動作します。 会議の議事録(未発表の新製品情報を含む) 顧客の個人情報が含まれる相談ログ 独自の製造ノウハウやプログラムコード これらを処理する際、データはあなたの目の前にあるPC(または自社サーバー)の中で処理され、一歩も外に出ません。この「物理的な安心感」こそが、金融機関や製造業、医療分野でローカルLLMが選ばれる最大の理由です。 2. コスト構造の変革:変動費から固定費へ クラウド型は、使えば使うほど課金される「従量課金(または月額サブスクリプション)」です。社員数が増え、利用頻度が上がれば、コストは青天井に膨らみます。 ローカルLLMは「初期投資型」です。高性能なPCを購入する費用はかかりますが、導入後はどれだけAIを使っても、かかるのは電気代のみ。 例えば、24時間稼働して膨大なドキュメントを読み込み続けるような自動化ボットを作る場合、クラウドでは莫大なAPI利用料がかかりますが、ローカルなら実質無料です。長期的に見れば、コストパフォーマンスは劇的に向上します。 3. BCP(事業継続計画)対策としての強み クラウドサービスは、提供側のサーバーダウンや、通信障害の影響を直接受けます。業務の根幹にAIを組み込んだ場合、AIが止まることは業務停止を意味します。 自社環境で動くローカルLLMなら、外部環境に左右されず、安定して業務を継続することが可能です。 AI導入の無料相談はこちらから 失敗しない「スペック選定」の極意 ローカルLLM導入で最も多くの担当者が頭を悩ませるのが、「どんなPCを買えばいいのか?」というハードウェアの問題です。ここでは、PC初心者の方にもイメージしやすいよう、例え話を使って解説します。 AIを動かすための「3つの神器」 AIを快適に動かすには、以下の3つのパーツのバランスが重要です。 GPU(グラフィックボード):AIの「脳みそ」最も重要なパーツです。NVIDIA(エヌビディア)社の「GeForce」シリーズなどが主流です。AIの計算処理を専門に行います。 VRAM(ビデオメモリ):AIの「作業机」GPUに搭載されているメモリです。ここが狭いと、大きなAIモデル(分厚い辞書)を広げることができず、動作すらしないことがあります。 システムメモリ(RAM):PC全体の「作業スペース」PC自体のメモリです。GPUにデータを送る前の一時保管場所として、最低でも32GB、できれば64GBあると安心です。 最も重要なのは「VRAM」の容量 モデルの賢さ(パラメータ数)と、必要なVRAM容量には明確な関係があります。ここでは、現在主流の技術である「量子化(モデルを圧縮して軽くする技術)」を使用した場合の目安を示します。 モデル規模パラメータ数必要VRAM推奨GPUビジネス用途のイメージ軽量級70億〜90億 (7B-9B)8GB以上RTX 3060 / 4060【個人・検証用】メールの下書き、簡単な翻訳、アイデア出し。ノートPCでも動作可能。中量級120億〜200億 (12B-20B)12GB〜16GBRTX 4070 Ti SUPERRTX 4080【実務導入の標準】長文の要約、複雑な指示の理解、日本語文書の作成。一般的なデスクトップPCで導入可能。重量級700億 (70B)24GB×2枚RTX 3090 / 4090(2枚差し)【高性能サーバー】GPT-4レベルの高度な推論、専門知識を問うタスク、大規模RAG。 【結論】 これからローカルLLMを導入する企業様には、VRAM 16GBを搭載したPC(RTX 4070 Ti SUPER または 4080)の購入を強くおすすめします。このスペックがあれば、現在主流のほとんどの商用モデルを快適に試すことができ、コストパフォーマンスも最適です。 AI導入の無料相談はこちらから 【2026年版】おすすめ主要モデル徹底比較 ハードウェアが決まれば、次はソフトウェア(AIモデル)選びです。世界中で公開されている数千のモデルの中から、ビジネス利用に耐えうる「四天王」をご紹介します。 1. Llama 3.1 (Meta社) 〜迷ったらこれ!世界のデファクトスタンダード〜 FacebookやInstagramを運営するMeta社が開発した、現在最も有名なオープンソースモデルです。 特徴: 8B(80億)、70B(700億)、405Bというラインナップがあり、特に70BモデルはGPT-4に匹敵する性能を持つと評価されています。 強み: 圧倒的なユーザー数を持つため、困ったときの情報がネット上に豊富です。日本語能力も実用レベルに達しており、指示に従う力(Instruction Following)が非常に高いです。 ライセンス: Llama Community License。商用利用可能ですが、「月間アクティブユーザー数が7億人を超える場合」は別途ライセンスが必要となります(一般的な企業利用ではまず問題ありません)。 2. Mistral NeMo (Mistral AI & NVIDIA) 〜日本語処理の達人〜 フランスの気鋭AI企業Mistralと、半導体の王者NVIDIAがタッグを組んで開発したモデルです。 特徴: 12B(120億)という、家庭用GPUで動くギリギリのサイズを攻めており、その分性能が高いです。「Tekken(鉄拳)」という名称のトークナイザーを採用しており、日本語の圧縮効率が極めて高いのが特徴です。 強み: 同じ文章量でも、他のモデルより処理速度が速く、かつ自然な日本語を出力します。日本企業での採用実績が増えているモデルです。 ライセンス: Apache License 2.0。非常に自由度の高い商用ライセンスで、ビジネスに組み込みやすいのが魅力です。 3. Gemma 2 (Google) 〜論理的思考に強い秀才〜 Googleが自社のGemini(ジェミニ)と同じ技術を使って作ったモデルです。 特徴: 9Bと27Bのサイズがあります。特に27Bモデルは「Knowledge Distillation(知識の蒸留)」という技術を使っており、自分より遥かに巨大なモデルから知識を受け継いでいるため、非常に賢いです。 強み: 「なぜそうなるのか?」という論理的な説明や、数学的な推論が得意です。クリエイティブな文章作成よりは、正確性が求められるタスクに向いています。 4. Phi-3.5 (Microsoft) 〜スマホでも動く軽快な相棒〜 Microsoftが開発した、「あえて小さく作った」モデルです。 特徴: パラメータ数を極限まで削ぎ落としつつ、学習データの質を高めることで性能を維持しています。 強み: GPUを搭載していない一般的なビジネス用ノートPCでも動作する「mini」版があります。インターネット環境がない現場で、マニュアル検索などを行いたい場合に最適です。 AI導入の無料相談はこちらから 自社データをAIに組み込む「RAG」の威力 ローカルLLMを導入する企業の多くが目指すのが、RAG(Retrieval-Augmented Generation / 検索拡張生成)の構築です。 RAGとは何か? 通常のAIは、学習した過去の知識しか持っていません。そのため、あなたの会社の「最新の製品仕様書」や「先週の会議の内容」については何も知りません。 RAGは、AIに「カンニングペーパー(社内データ)」を渡して、それを見ながら回答させる技術です。 ローカルRAGの活用ユースケース 社内ヘルプデスクの自動化「交通費精算の規定はどうなっていたっけ?」「有給休暇の申請フローは?」といった社員からの質問に対し、社内規定(PDF)を参照してAIが即答します。総務部の問い合わせ対応工数を劇的に削減できます。 技術伝承・マニュアル検索熟練技術者が残した膨大な日報や技術文書をAIに読み込ませます。若手社員が「このエラーが出た時の対処法は?」と聞けば、過去の事例から解決策を提示してくれます。 契約書チェック支援過去の法務チェック済み契約書をデータベース化し、新しい契約書案との差異やリスクを洗い出させます。 これら全てを、外部にデータを一切送信せずに行えるのが、ローカルLLM×RAGの真骨頂です。 初心者でもできる!導入手順とツール 「コマンドライン(黒い画面)での操作は難しそう…」と心配される必要はありません。現在は、直感的に使える素晴らしいツールが揃っています。 手順1:AIの「エンジン」を入れる(Ollama) Ollama(オラマ)というツールを使います。これは、複雑な環境構築をワンクリックで行える画期的なソフトです。 公式サイトからインストーラーをダウンロード。 インストール後、使いたいモデル名(例:llama3.1)を指定するだけで、自動ダウンロードとセットアップが完了します。 手順2:AIの「見た目」を整える(Open WebUI) Ollamaだけでは黒い画面での操作になります。そこでOpen WebUIというツールを導入します。 これを導入すると、Webブラウザ(ChromeやEdge)上に、ChatGPTそっくりの画面が表示されます。 チャット履歴の保存 モデルの切り替え PDFファイルのアップロード(RAG機能)これらがマウス操作だけで可能になります。社員への展開も、この画面を見せるだけなのでスムーズです。 AI導入の無料相談はこちらから 導入前に知っておくべきリスクと注意点 良いことばかりではありません。ローカルLLM特有の課題も理解しておく必要があります。 1. 「ハルシネーション(もっともらしい嘘)」 ローカルLLMに限らず、生成AIは事実ではないことを自信満々に語ることがあります。業務利用の際は、「AIの回答を必ず人間が確認する」フローを組み込むか、RAGを使って「根拠となるドキュメント」を必ず提示させる設定にする必要があります。 2. ライセンスの複雑さ オープンソースモデルは「無料」ですが、「無条件」ではありません。 商用利用は可能か?(Non-Commercialライセンスではないか?) クレジット表記(「Llamaを使用しています」等の記載)が必要か?これらをモデルごとに確認する必要があります。 3. セキュリティ設定の落とし穴 「ローカルだから安全」と過信してはいけません。社内ネットワークに接続する場合、アクセス権限の設定を誤ると、社員Aが見てはいけない人事データを社員BがAI経由で引き出せてしまう可能性があります。 また、「プロンプトインジェクション(AIを騙して不適切な回答を引き出す攻撃)」への対策も、自社で行う必要があります。 費用対効果の試算と今後の展望 コストシミュレーション 【条件】社員20名で3年間、業務支援AIを利用する場合 クラウド型(ChatGPT Teamプラン等):月額約4,500円 × 20名 × 36ヶ月 = 約324万円※ここに追加で、データ連携などの開発費がかかる場合があります。 ローカル型:ハイスペックPC(GPU 2枚構成)購入費:約80万円電気代(月5,000円と仮定):約18万円保守運用・人件費(概算):約100万円合計:約198万円 このように、一定規模以上の利用であれば、ローカルLLMは圧倒的なコストメリットを出せる可能性があります。何よりも、「情報漏洩リスクゼロ」という価値は金額換算できないほど大きいです。 今後の展望:AIエージェントへ 現在は「人がチャットで指示して、AIが答える」形式ですが、近い将来、ローカルLLMは「自律型エージェント」へと進化します。 「PC内のフォルダを整理しておいて」「届いた請求書を会計ソフトに入力しておいて」といった指示だけで、AIが自律的にPCを操作して業務を完遂する時代がすぐそこまで来ています。 今、ローカルLLMの環境を整えておくことは、こうした次世代の業務自動化への重要な布石となるのです。 まとめ:自社に最適なAI活用の第一歩を ローカルLLMは、セキュリティ、コスト、カスタマイズ性の面で、企業のAI活用を次のステージへと押し上げる強力な選択肢です。 まずはスモールスタートで: 手元のPCにOllamaを入れ、Phi-3.5などの軽量モデルから試してみる。 実務へ展開: VRAM 16GB以上のPCを用意し、Llama 3.1やMistral NeMoで社内RAGを構築する。 しかし、「どのモデルが自社の業務に最適なのか判断が難しい」「RAGの精度が上がらず困っている」「セキュリティ設定に不安がある」といった専門的な課題に直面することも事実です。 東大発のAI専門家が、あなたのAI導入を「伴走」します 株式会社EQUES(エクエス)は、東京大学松尾研究所発のAIスタートアップ企業です。 私たちは、単なるシステム開発ではなく、お客様の社内AI人材を育成し、共に課題解決に取り組む「伴走型技術開発」を提供しています。 弊社が提供するサービス「AIDX寺子屋」では、月額定額で東大出身のAI専門家集団にチャットで相談し放題。 「この業務に使えるローカルLLMはどれ?」 「RAGの回答精度を上げるためのコツは?」 「社内PCのスペック選定を手伝ってほしい」 こうした具体的なお悩みに対し、専門家が迅速かつ親身に回答いたします。プランA(月額20万円〜)では、チャット相談に加えて月1回のオンラインミーティングも実施。貴社のAIプロジェクトを成功へと導きます。 AIの進化は待ってくれません。 セキュリティと効率化を両立する「ローカルLLM」の導入を、私たちと一緒に始めませんか? まずはお気軽に、貴社の現状や課題をご相談ください。 AI導入の無料相談はこちらから

View All
採用情報