生成AIはエンジニアにとって「クール」であり続けられるか?
──三宅様、今話題の生成AIのメカニズムについてご説明いただけますか?
三宅氏:AI技術には大きく2種類あります。1つはシンボリックAIと呼ばれるもので、知識を記号化して、検索エンジンのようにルールに基づいた動きをします。もう1つはディープニューラル・ネットワーク(Deep Neural Network)で、人の脳の神経細胞であるニューロンをコンピュータにシミュレートすることで、さまざまなことを学習できるAIです。たとえば、猫やリンゴを判別する場合、何千枚もの画像を学習したモデルを使って、入力された画像が猫かリンゴかを判別します。生成AIはこのディープニューラル・ネットワークによるものです。学習された画像を基に画像を生成します。また画像だけでなく、音声やテキストなどさまざまな生成AIがあります。
そして今、ゲーム業界でも生成AIを活用しようとする動きがあります。これまで、ゲーム開発におけるサウンドや画像、テキストなどのコンテンツは人が作っていました。これはゲームデータの巨大化に伴うコストの増加の軽減に繋がるため注目されています。しかしその一方で、生成AIが生み出すコンテンツをコントロールできない問題もあります。学習データとしての画像や音声、音楽、ブログ記事など、他の人が作ったものなら、著作権の問題もあります。
ガーツ氏:確かに、私たちはAIの学習に使われたデータやその著作権を知ることができません。一方で、人々の労働問題も大切だと思います。人の作業を効率化するためのAIですが、その学習のためには人が個々の学習データを分類・ラベリングする作業が発生します。認識のチェックに加え、性的な内容や人種差別的な内容などを排除する必要があるからです。
膨大なデータを学習させるために、作業する人の労力も膨大になっています。そして、そのために適切な報酬が支払われていないという問題もあります。例えばChatGPTで成功したOpenAIですが、ケニアの労働者が時給2ドル(約280円)以下で作業を行わせていたという報道もありました。
このような生成AIを、私たちは「創造的である」と感じています。私は、創造することに対する私たちの理解力が低下していくのではないかと心配しています。
三宅氏:一方で、生成AIを使うことでクリエイターの力をさらに高めることができるかもしれないとも考えています。たとえば、キャラクターのイラストを描く際、画像検索で得た複数の画像の見本を参考にしながら作ることがあります。ここに生成AIを活用すれば、こちらの要求に応じて瞬時に1000枚以上の画像を生成できます。アーティストはその中から1枚を選んで、インスピレーションを受けて制作することも可能です。AIと人がコラボレーションして最終的な画像を作ることができるのです。
ゲームを構成するコンテンツの制作を効率化することは、特に規模の小さなゲームスタジオに恩恵を与えるでしょう。たとえば、Googleマップのストリートビューで、ある街のシーンを選びます。その情景を生成AIによってSF的な街など、意図した画像に変換できます。キャラクターの言動にChatGPTを使うゲームもあります。ゲームの世界にあわせて返答するように調整されたものです。ユーザーにとっては、どのアートやキャラクターが、人によるものなのか、AIが関与しているかはわかりません。しかし、著作権については非常に問題だと考えています。多くの大企業が、生成AIの出力結果の著作権を確認するために多くのクラウドワーカーを雇うなど、矛盾した状況が起きているのも事実です。
また、ゲームの世界自体を生成するAIも注目されています。従来のゲームは、リリースされた時点で内容が決まっていますが、生成AIによってゲームの内容をダイナミックに変更することも可能です。たとえば、プレイヤーの習得度によってミッションや行動範囲、敵の強さなどを変化させることもできるでしょう。
──生成AIの活用には問題も多いことが分かりました。よく言われている倫理的な問題としてはどのような問題があるのでしょうか。
ガーツ氏:古代ギリシャの哲学者プラトンは、2500年前に既にこの課題を認識していました。プラトンは「私たちが創造性を失い、まだ言われていないことよりも、すでに言われたことに集中するようになる」ということを心配していました。
これは現代のゲームや映画について、過去の作品を取り上げ、それを組み替えることで新しい作品にしようとする制作者の活動に対し、ファンが「見たことがある」「なぜ新しいものが出てこないんだ?」「何かクリエイティブなものはないのか?」と不満を募らせていることと同じです。生成AIは、すでに作られたコンテンツを学習データとして使っているため、その創造性は私たちが期待するほど高くないです。上記のような人が望まないものが市場に溢れることになるでしょう。
私がテクノロジー系のカンファレンスで講演するとき「エンジニアは、やっていることが良いか悪いかではなく、クールかそうでないかに興味を持っている」と言うと、多くの賛同を得られます。みんな自分の仕事の良し悪しより、クールであることに重きを置いてしまいます。
確かに生成AIはクールなものです。でも、この先もずっとクールであり続けられるとは思いません。たとえばサムスンでは、エンジニアがChatGPTを使ってコーディングして機密情報を漏えいしました。医療スタッフがChatGPTを使って個人情報を含んだ医療データを照合したケースもあります。実際には、自分たちの利益に反することに繋がることもあるのです。
──どうしたらこうした問題を解消できますか?
ガーツ氏:人の活動を単に機械的な作業として捉えることをやめましょう。人間とは何か、人間の活動とは何か、そもそもなぜそれが意味を持つのかについて、本当の意味での哲学的な理解を持っていないことが問題なのです。ピカピカの新しいもの、クールなものに騙されて、自分がすることの意味を失ってしまっているのです。