米OpenAIは、音声、視覚、テキストをリアルタイムで推論できる、AIモデルの最新フラッグシップとなる「GPT-4o」を5月13日(現地時間)に発表した。
GPT-4oのoはオムニを意味し、テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像のあらゆる組み合わせの出力を生成する。音声入力には232msでの応答が可能で、平均では320msと会話における人間の応答時間とほぼ同じになる。
英語のテキストおよびコードではGPT-4 Turboと同等のパフォーマンスで、英語以外の言語のテキストでも大幅に改善されたほか、APIでは高速な応答を50%安価に実現した。GPT-4oは既存のモデルと比較して、とりわけ視覚と音声の理解に優れている。
単一の新たなモデルとして、テキスト、視覚、音声を用いてエンドツーエンドでトレーニングされており、すべての入力と出力が同じニューラルネットワークによって処理される。
GPT-4oのテキストおよび画像機能は、同日よりChatGPTで展開されており、無料枠で利用できるほか、Plusユーザーは無料ユーザーの最大5倍のメッセージ制限を有する。また、近日中にChatGPT Plus内において、GPT-4oを使用した音声モードの新バージョンがアルファ版で公開される。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です