ハラスメントにも繋がるバイアス、誰がチェックするの?AIの品質課題
AIの要素を含むシフトライトの場合は、QAなどの責任者が見るべき範囲が広すぎることも「めんどくさい」理由の1つだ。事前学習が正しく学習されているかも含めたモデル自体の正しさや、リリース後の学習がなされているかどうか、データのパイプラインやバイアスのチェックなど、確認項目は多岐にわたる。
とくにバイアスについて、高橋氏は「事前学習や事前データがボロボロなら、絶対にいいものは作れない」と断言したうえで、こうしたバイアスについて、「我々が生きている世界には、ハラスメントにもなりうるバイアスが存在する。だからこそ、厳密性に気を配らなければならない」と続けた。
具体的なバイアスの例として、高橋氏はサンプリングバイアスを挙げる。世界人口の1位2位はインドと中国だが、OpenImagesやImageNetといった大規模画像データベースにおいては、オープンイメージの45~55%がアメリカとイギリスの画像で構成されている。そのため、ソフトウェアによっては有色人種が検出されにくくなるという事態が起こりうるのだ。
こうしたAIの振る舞いについて、「我々の使うAIソフトウェアはバイアスがかかっているため、バグとは異なる機能以外の品質(非機能品質)のテストも詰めなければならない」と示した。
「AIには理系の技術も必要だが、より必要とされるのは文系的な技術や考え方。人間の認知や知能を理解してアウトプットを行うので、AIはほとんど文系の領域だと思う」と語る高橋氏。たとえば自動運転システムにおける危機回避は、いわゆる「トロッコ問題」のような、人間のなかでも意見が分かれる問題に対処する必要がある。
「思いきりハンドルを切って最大限の回避を行うのか、少しだけハンドルを切って被害を最小限に抑えるか、という判断をAI自身が下さなければならない。ここがシンプルにいかないところだ」と、改めてAIソフトウェアの難しさについて言及した。