オープン/クローズドで読み解くLLMの現在
生成AI活用が広がる中で、LLM(大規模言語モデル)事情も変化していると語るのは、レッドハットのスペシャリストソリューションアーキテクト、石川純平氏だ。
LLMは大きく、クローズドLLMとオープンLLMに分けることができる。クローズドLLMは、クラウドで提供される生成AIサービスで、OpenAIのChatGPTやAnthropicのClaudeなどが代表例だ。AIモデルの詳細は非公開で、利用はAPI経由。利用量に応じて課金される。一方のオープンLLMは、AIモデルが公開されているLLMだ。MetaのLlama3やMistralなどが代表例となる。AIモデルの共有を行うHugging Faceで公開されており、モデルは誰もがダウンロード可能。公開されたモデルをデプロイして動かすためにはサーバとインフラ環境は自前で用意する必要がある。
これまでは、利用の手軽さやパフォーマンス(クローズドLLMの方がオープンLLMよりも相対的に性能が高い)の面から、クローズドLLMの方が評価されてきた。しかし、昨今は両者の性能差が縮まりつつあると石川氏は述べる。実際、コーディングではトップのクローズドLLMの性能をオープンLLMがすでに上回っている状況という。中国DeepSeekが2024年5月に公開したコーディングモデルDeepSeek-Coder-V2は、同社が公開したベンチマークテスト結果においてGpt-4-Turbo-0409やClaude-3-Opusと比較しても劣らない、むしろ上回る性能を実現した。
日本語での応答や日本特有の知識を学習させたLLMも、商用利用可能なライセンスとして公開されるものが増えており、性能も良い。たとえば、国内スタートアップのELYZAが公開するLlama-3-ELYZA-JP-8Bの最新ベンチマークでは、クローズドLLMのGPT-3.5 TurboやClaude 3 haikuなどよりも高い性能を記録していると石川氏は述べる。
加えて、昨今はAIの学習/推論コストが低下している。石川氏はOpenAI創業者のひとり、アンドレイ・カーパシイ(Andrej Karpathy)氏がSNS投稿した「GPT-2発表時の5年前は学習コストに10万ドルほどかかっていたが、現在は672ドルになった」を取り上げ、ハードウェアやライブラリの進化などがコスト引き下げに貢献していることを説明。推論コストについても、OpenAIのdavinciモデルは4年前に100万トークンあたり20ドルあたりだったのが今では10セント未満だ。
「今後は高性能なモデルをより安く使えるようになり、高価なGPUサーバでなくてもLLMが動くようになる。そうなったとき、クラウドにアクセスせずオンプレミスで利用したい、顧客情報など機密情報をクラウドに送信したくない、利用用途にもよるがメガプロンプトからの出力だとコストが上がるのが辛いといった、クローズドLLMでは難しいユースケースに応える形でオープンLLMを選択する人は増えるだろう」(石川氏)