AI の基盤モデルとは

URL をコピー

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

最近まで、人工知能 (AI) システムは特殊なツールであり、ML モデルのトレーニングは特定のアプリケーションやたった 1 つのユースケースのためのものでした。基盤モデル (ベースモデルとも呼ばれる) という呼称は、機械学習の分野で次のような 2 つの傾向があることに専門家が気付き始めたときに生まれました。

  1. さまざまなタスクで結果を達成するために、少数のディープラーニング・アーキテクチャが使用されていました。
  2. 人工知能 (AI) モデルから、トレーニングで当初意図されていなかった新しい概念が生まれることがあります。 

IBM の Granite モデルなどの基盤モデルは、パターン、構造、表現の一般的な文脈を理解して機能するようにプログラムされています。コミュニケーション方法とパターンの識別方法に関するこの基礎的な理解により、知識のベースラインが作成されます。これをさらに修正したり微調整したりして、ほぼすべての業界の特定領域のタスクを実行させることができます。

Red Hat AI の詳細

基盤モデルを機能させる 2 つの特徴は、転移学習とスケールです。転移学習とは、ある状況に関する情報を別の状況に適用し、その内部の「知識」に基づいて構築するモデルの能力を指します。 

スケールとは、ハードウェア、特にグラフィックス・プロセッシング・ユニット (GPU) を指します。これにより、モデルは複数の計算を同時に実行 (並列処理とも言う) できます。GPU は、データを迅速に処理し、複雑な統計計算を行う能力を提供するため、基盤モデルを含むディープラーニング・モデルのトレーニングとデプロイに不可欠です。

スケールとトレーニングの両方が AI 推論の実行を支援します。AI 推論は AI の運用フェーズであり、モデルはトレーニングで学んだことを現実世界の状況に適用できます。

ディープラーニングと基盤モデル
多くの基盤モデル、特に自然言語処理 (NLP)、コンピュータビジョン、オーディオ処理で使用されるモデルは、ディープラーニング技術を使用して事前に訓練されます。ディープラーニングは、多くの (すべてではない) 基盤モデルを支えるテクノロジーであり、この分野における多くの進歩の原動力となってきました。ディープラーニングはディープ・ニューラル・ラーニングやディープ・ニューラル・ネットワークとも呼ばれ、観測を通じてコンピュータに学習させるもので、人間が知識を獲得する方法を模しています。 

トランスフォーマーと基盤モデル
すべての基盤モデルがトランスフォーマーを使用するわけではありませんが、トランスフォーマー・アーキテクチャは、ChatGPT、BERT、DALL-E 2 など、テキストを含む基盤モデルを構築するための一般的な方法であることが証明されています。トランスフォーマーは、一連のデータにおける要素間の文脈上の関係と依存関係を取り込めるようにすることで、ML モデルの機能を強化します。トランスフォーマーは人工ニューラルネットワーク (ANN) の一種で、NLP モデルに使用されますが、通常、コンピュータビジョン・モデルや音声処理モデルを単独で使用する ML モデルでは利用されません。

Red Hat のリソース

基盤モデルのトレーニングが完了すると、膨大なデータプールから得た知識を利用して問題解決に役立てることができます。このスキルは、さまざまな方法で貴重な知見を提供し、組織に貢献することができます。基盤モデルが実行できる一般的なタスクには次のようなものがあります。

自然言語処理 (NLP)
NLP でトレーニングされた基盤モデルは、文脈、文法、言語構造を認識して、トレーニングに使用されたデータから情報を生成し、抽出することができます。テキストをセンチメント (肯定的、否定的、中立的) と関連付けるように訓練することで NLP モデルをさらに微調整すると、顧客のフィードバック、オンラインレビュー、ソーシャルメディア投稿など、文書によるメッセージの分析を検討している企業にとって役立つ可能性があります。NLP の領域は広範で、大規模言語モデル (LLM) の開発と適用が含まれます。

コンピュータビジョン
モデルが基本的な形状と特徴を認識できる場合、パターンを識別できるようになります。コンピュータビジョン・モデルをさらに微調整すると、コンテンツ・モデレーション、顔認識、画像分類の自動化が可能になります。このモデルは、学習したパターンに基づいて新しい画像を生成することもできます。 

オーディオ/音声処理
モデルが音声要素を認識できる場合、人間の声から意味を導き出すことができ、より効率的で包括的なコミュニケーションが可能になります。仮想アシスタント、多言語サポート、音声コマンド、文字起こしなどの機能により、アクセシビリティと生産性が向上します。 

さらに微調整を行うことで、金融機関向けには不正行為検出、医療向けには遺伝子配列決定、顧客サービス向けにはチャットボットなど、業界特有のニーズへの対応にさらに特化した機械学習システムを設計できます。

基盤モデルは、多くの組織が独自に達成するためのリソースを持たない AI の領域におけるアクセシビリティと高度なレベルを実現します。基盤モデルを導入し、それに基づいて構築することで、組織は次のような一般的な障害を克服できます。

質の高いデータへの限定的なアクセス:基盤モデルは、ほとんどの組織がアクセスできないデータに基づいて構築されたモデルを提供します。

モデルのパフォーマンス/精度:基盤モデルは精度の高いベースラインを提供します。組織が独自にベースラインを構築する場合、数カ月、あるいは数年かかる可能性があります。 

価値実現までの時間:機械学習モデルのトレーニングには長い時間がかかり、多くのリソースが必要になります。基盤モデルが事前トレーニングのベースラインを提供するため、組織はそれを微調整して、組織が求める固有の結果を達成できます。 

限られた人材:基盤モデルによって、組織はデータサイエンスのリソースに多額の投資をすることなく AI/ML を活用することができます。

経費管理:基盤モデルを使用することで、初期トレーニングに必要な高価なハードウェアの必要性が減少します。最終的なモデルの提供と微調整には依然としてコストがかかりますが、これは基盤モデル自体のトレーニングにかかるコストのほんの一部にすぎません。

エンタープライズで AI が機能する仕組みの詳細はこちら

基盤モデルには興味深い応用例が多数ありますが、注意すべき潜在的な課題も数多くあります。

コスト
基盤モデルの開発、トレーニング、デプロイには多大なリソースが必要です。基盤モデルのトレーニングの初期段階では、膨大な量の汎用データが必要で、数万にも及ぶ GPU を消費し、多くの場合、機械学習エンジニアとデータサイエンティストのグループが必要になります。 

LoRA と QLoRA がコストの削減とモデル効率の向上にどのように役立つかについてはこちらをご確認ください。 

解釈可能性
「ブラックボックス」とは、AI プログラムがニューラルネットワーク内でタスクを実行し、どのような処理が行われているのかを外部から見ることができない状態を指します。この状況では、データサイエンティストやアルゴリズムを作成したエンジニアでさえも、モデルが特定の出力にどのようにして至ったかを誰も正確に説明できません。ブラックボックスモデルでは解釈が困難なので、特に医療、刑事司法、金融などの業界では、リスクの高い意思決定に使用すると有害な結論が導かれかねません。このブラックボックス現象は、基盤モデルだけでなく、ニューラルネットワークをベースとするあらゆるモデルで生じる可能性があります。 

プライバシーとセキュリティ
基盤モデルは多くの情報にアクセスする必要があり、その中には顧客情報や独自のビジネスデータが含まれる場合もあります。これは、サードパーティ・プロバイダーがモデルをデプロイしたり、モデルにアクセスしたりする場合に特に注意が必要です。

精度と偏り
ディープラーニング・モデルが統計的に偏りのあるデータや母集団を正確に反映しないデータでトレーニングされると、結果が損なわれます。残念なことに、今ある人間の偏見が人工知能に反映されることがよくあり、差別的なアルゴリズムや偏りのある出力を招くリスクを生じさせています。組織では生産性やパフォーマンスの向上に AI を活用しようとし続けていますが、バイアスを最小化するための戦略を適用することが不可欠です。これはインクルーシブデザインのプロセスと、収集したデータ内の代表的な多様性を入念に検討することから始まります。 

AI/ML に関する考慮事項

Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のポートフォリオです。

Red Hat AI のサポートによって以下のことが可能になります。

  • AI を迅速に導入してイノベーションを実現する
  • AI ソリューションの提供における複雑さを解消できる
  • どこにでもデプロイできる

Red Hat AI の詳細

IBM の Granite モデルファミリーに簡単にアクセス

基盤モデルを試験的に導入する準備はできているものの、ビジネスユースケースがまだ明確でないというお客様には、Red Hat® Enterprise Linux® AI から始めることをお勧めします。この基盤モデルプラットホームは、エンタープライズ・アプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーの開発、テスト、実行を支援します。

このプラットフォームを通じて、開発者は LLM と AI のツールを備えた単一のサーバー環境にすばやくアクセスできます。また、モデルを調整して生成 AI アプリケーションを構築するために必要なものがすべて揃っています。

Red Hat AI は、InstructLab というソリューションによって、LLM を改善するための追加のモデルアライメント・メカニズムも提供します。InstructLab は、オープンソース・コミュニティが主導するアプローチを取り入れて LLM の機能拡張を実現すべく、Red Hat と IBM によって開発されました。

Red Hat Enterprise Linux AI の詳細 

ハブ

Red Hat 公式ブログ

Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。

すべての Red Hat 製品のトライアル

Red Hat の無料トライアルは、Red Hat 製品をハンズオンでお試しいただける無料体験版です。認定の取得に向けた準備をしたり、製品が組織に適しているかどうかを評価したりするのに役立ちます。

関連情報

機械学習とは ? をわかりやすく解説

機械学習 (Machine Learning) とは、コンピュータが大量のデータから自動で学習し、ルールやパターンを抽出し、さらに学習した成果に基づいて予測や’判断を行う手法です。

ディープラーニングとは?をわかりやすく解説

ディープラーニングは、人間の脳をヒントに開発されたアルゴリズムを使用してコンピュータにデータを処理する方法を教える人工知能 (AI) 技法です。

生成 AI とは?をわかりやすく解説

生成 AI とは、人工知能テクノロジーの一種であり、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成するものです。

AI/MLリソース

関連記事