生成 AI 開発企業の論点
International Journalism Festival はイタリアのペルージアにて,2006 年から毎年開催されている.
1 内部告発者の言うことを聞く準備はできているか? (Festival, 2024a)
生成 AI 開発には大規模な計算資源とデータセットが必要であり,これらを揃えられる企業は現状数えるほどしかない.
そのため,必然的に大規模かつ組織的な企業に限られ,OpenAI をはじめとして情報統制が厳格であり,その内部状況は内部告発者 (whistleblower) や退職・転職者によるブログやソーシャルメディアに頼り切りになっているのが現状である.
仮に,社会的問題の萌芽がどこかの企業で見られようと,我々がそれを知るには,内部告発者に頼るしかない.しかし,内部告発者とは開発者に他ならず,その内容は極めて専門的であるかもしれず,我々がその発信の内容を聞き入れて,適切な行動に繋げる準備ができているとは言い難い.
生成 AI 開発を監視し,生じ得る問題に準備するためには,我々も出てくる情報に対して準備ができている状態でなければならない.
2 生成 AI を高度に活用した偽情報はどのように見抜けるか? (Festival, 2024b)
Microsoft Research が4月16日に発表したモデル VASA-1 (Xu et al., 2024) は,1枚の写真と音声ファイルから,あたかもその人が音声ファイルの内容を喋っているかのような動画を生成することが可能である.
このような,AI が生成した画像・動画等がシェアされることによって,それを見た市民の感情を引き起こすことができ,多くの場合この変化は可逆でない.
テクノロジー的な解決については,かなり悲観的になるべきである.完璧な AI detectors はまだできておらず,精度の低い人の目にも AI 生成であることがわかるようなものは検出できても,精度が高いものだと「AI 生成である確率は 1% である」などと出力してしまうという.
このような逆境の中でも TrueMedia.org など,AI 生成かどうかを判定するイニシアティブが存在する.