ーTech for Human Evolutionー

Meta、Llama 3.1を発表:405Bパラメータの最強オープンソースAIモデルが登場

Meta、Llama 3.1を発表:405Bパラメータの最強オープンソースAIモデルが登場 - innovaTopia - (イノベトピア)

Last Updated on 2024-07-24 07:58 by admin

Meta社は2024年7月23日、同社最新のAIモデル「Llama 3.1」を正式に発表した。Llama 3.1は4050億のパラメータを持つ大規模言語モデルで、これまでで最も強力なオープンソースモデルとなる。

Llama 3.1は2024年4月に発表されたLlama 3の改良版で、高い精度で複雑な指示に応答する能力を持つ。このモデルは、ポルトガル語、スペイン語、ドイツ語、フランス語、ヒンディー語、タイ語など複数の言語をサポートする。

Llama 3.1の特徴として、128,000トークンのコンテキストウィンドウを持ち、約400ページの小説に相当するテキスト入力が可能となっている。Metaによると、150以上のベンチマークデータセットで広範なテストが行われ、GPT-4やClaude 3.5 Sonnetなどの主要な基盤モデルと同等の性能を示したという。

Metaの人工知能プログラム管理担当副社長であるRagavan Srinivasanは、Llama 3.1を「教師モデル」と表現し、smaller models、特に8Bおよび70Bバージョンに知識を伝達する能力があると説明している。

Llama 3.1は、AWS BedRockやSageMaker、WhatsApp、Meta AIなど、様々なプラットフォームで利用可能となる予定だ。

from:Meta unleashes its most powerful AI model, Llama 3.1, with 405B parameters

【編集部解説】

Metaが発表した最新のAIモデル「Llama 3.1」について、編集部から詳しく解説させていただきます。

まず、Llama 3.1の登場は、オープンソースAI開発の新たな時代の幕開けを象徴していると言えるでしょう。4050億のパラメータを持つこの大規模言語モデルは、OpenAIのGPT-4やAnthropicのClaude 3.5 Sonnetなど、主要な商用モデルと肩を並べる性能を示しています。

Metaがこのような高性能なモデルを無償で公開した背景には、AIの民主化を推進する狙いがあります。Mark Zuckerberg氏は、かつてのLinuxのようにオープンソースAIが急速に発展し、クローズドな商用モデルとの差を縮めていくと予想しています。

Llama 3.1の特筆すべき点として、128,000トークンという長大なコンテキストウィンドウがあります。これにより、約400ページの小説に相当する長文の入力が可能となり、より複雑で詳細な情報処理が実現します。

また、多言語対応も強化されており、英語以外にもポルトガル語、スペイン語、ドイツ語、フランス語、ヒンディー語、タイ語などをサポートしています。これにより、グローバルな利用シーンが大きく広がることが期待されます。

一方で、このような強力なAIモデルの公開には潜在的なリスクも存在します。悪用の可能性や、AIの発展に伴う倫理的な問題が指摘されています。Metaはこれらの懸念に対処するため、Llama Guardという安全性モデルやPrompt Guardというプロンプトインジェクション防止フィルターを導入しています。

Llama 3.1の登場は、AI開発のエコシステムにも大きな影響を与えるでしょう。Metaは「Llama Stack」というオープンな標準インターフェースの策定を提案しており、これが普及すれば、AI開発の相互運用性が向上する可能性があります。

長期的な視点では、Llama 3.1のようなオープンソースモデルの発展が、AI技術のさらなる民主化と革新を促進すると考えられます。一方で、AIの進化に伴う社会的影響や規制のあり方についても、より深い議論が必要となるでしょう。

Llama 3.1は現在、テキスト処理に特化していますが、Metaは画像や音声、動画を理解する機能の開発も進めています。将来的には、より総合的なAIシステムへと発展していく可能性があります。

このように、Llama 3.1の登場は、AI技術の発展と社会実装の新たなステージを象徴する出来事と言えるでしょう。私たちはこの技術の進化を注視しつつ、その可能性と課題について継続的に考察していく必要があります。

【用語解説】

  • パラメータ数
    AIモデルの複雑さを表す指標です。人間の脳でいえば、ニューロン(神経細胞)の数に相当します。パラメータ数が多いほど、より複雑な情報処理が可能になりますが、同時に学習に必要なリソースも増加します。
  • コンテキストウィンドウ
    AIモデルが一度に処理できるテキストの長さを指します。例えば、128Kトークンのコンテキストウィンドウは、約400ページの小説に相当する長さのテキストを一度に処理できることを意味します。
  • オープンソース
    ソフトウェアの設計図(ソースコード)を公開し、誰でも自由に利用、改変、再配布できるようにする開発モデルです。Linuxオペレーティングシステムが有名な例です。

【参考リンク】

  • Meta AI(外部)
    Metaの人工知能研究部門。Llamaモデルの開発元です。
  • Hugging Face(外部)
    AI開発者向けのプラットフォーム。Llama 3.1モデルがダウンロード可能です。
  • OpenAI(外部)
    GPT-4などの大規模言語モデルを開発している企業。Metaのライバルの一つです。

【関連記事】

Llamaに関する記事をinnovaTopiaでもっと読む

投稿者アバター
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com