LLM が真に社会に受け入れられるまで

近年の発展のまとめ

AI
Disinformation
著者

ぷに

日付

2/20/2024

はじめに
LLM が社会に大きな影響を与えたことは間違いないが,真に社会に溶け込み,社会の役に立ったり,既存の意思決定システムの一環を担えるようになるためには解決しなければいけない問題が多すぎる.本稿はそのうちいくつかをまとめる試みである.

1 LLaMA の一般公開とその影響

Meta AI が 7/18/2023 に LLM LLaMA (Touvron et al., 2023) を公開した.そして API を通じて利用する形ではなく,そのモデルのウェイトが公開されたため,Stanford 大学の Alpaca など,モデルの改良と研究が促進されている.

特に事後調整のための公開データセットの整備が進んでおり,Alpaca では Self-Instruct (Wang et al., 2023) による効率的な alignment 技術が採用されている.

産業界でも影響は大きい.ELYZA12/27/2023 に日本語に特化した LLM である ELYZA-japanese-Llama-2-13b を公開している.Stockmark10/27/2023 に Stockmark-13b を公開している.

いずれも,開発費と開発時間が大幅に圧縮されたという.1

IBM は 9/12/2023 に LLM Granite を発表している.加えて,プラットフォーム watsonx も提供しており,その上で RAG など独自の事後調整を可能にしている.

IBM と Meta の2社が発起人となり,12/5/2023 に AI Alliance が発足し,オープンイノベーションを推進している.

Stable Diffusion (Rombach et al., 2022) もソースコードとウェイトが 一般公開 されている.

2 LLM の経済的影響

(Tamkin et al., 2021) は早い段階での OpenAI と Stanford 大学 HAI (Human-centered AI) との対談録である.

OpenAI はコード生成能力の経済的な影響を重要なアジェンダとしている (Manning et al., 2022)

Open AI の Codex (Chen et al., 2021) はプログラム言語を扱うトランスフォーマーであり,GitHub Copilot の元となっている.これが社会に与える影響も,新たな評価フレームワークと共に提案されている (Khlaaf et al., 2022)

LLM の労働市場へのインパクトも推定している (Eloundou et al., 2023).これによると,アメリカの労働者の 80% が,LLM の導入により少なくとも仕事の 10% に影響が生じるとしている.さらに全体の 20% は仕事の半分以上が影響を受けるとしている.

3 世界モデルとしての基盤モデル

3.1 社会行動シミュレーターとしての LLM

社会的なシミュレーションを LLM 内で行うことで,社会科学やビジネスの場面での意思決定を支援することが期待されている.

LLM は人間の心の理論を理解し,その心情・意図を(ある程度)シミュレートすることが出来るようである (Andreas, 2022)

LLM でのシミュレーションを通じて,社会科学的な知識を引き出そうとする試みもある (Leng and Yuan, 2023)

4 LLM と経済安全保障

4.1 幻覚の防止

LLM が事実と異なる物語を生成することを 幻覚 (hallucination) と呼び,一部の応用では問題になることがある.

これを解決するにあたって,等角推測 (conformal prediction) と組み合わせ,出力の不確実性を評価することで幻覚を防止する手法が提案されている (Mohri and Hashimoto, 2024)

一般に意思決定の場面において AI を活用するには,不確実性の定量化が必要不可欠である.

GPT-3 を Bayesian にし,自身の確証度合いを言表するように事後調整する研究が OpenAI で行われている (Lin et al., 2022)

4.2 ウォーターマーク

ウォーターマークを開発することで,LLM から出力された文章であることを高確率で検出できるようにする方法が,統計的仮説検定の技術を応用して提案されている (Kuditipudi et al., 2023)

4.3 偽情報対策

生成 AI は,一国の政府が特定のプロパガンダを流布するための効果的な手段として選ばれることになる.その際の考え得る使用例と,それに対する対策が考えられてる (Goldstein et al., 2023)

特に,2022 年に始まったロシアによるウクライナ侵攻は,最初の本格的な AI による情報戦と認識されつつある (Sobchuk, 2024)

これに対する対抗手段として,ウクライナのスタートアップ OsavulMantis Analytics によって使われているのもやはり LLM である.

Mantis Analytics の製品のデモ(クリックで URL を開く)

Mantis Analytics の製品のデモ(クリックで URL を開く)

4.4 開発規制

(Anderljung et al., 2023) は先端的な AI を Frontier AI と呼び,これの開発過程におけるあるべき規制を模索している.監督当局に執行権を付与することやフロンティアAIモデルのライセンス制度などが議論されている.

(Shoker et al., 2023) は LLM と国家安全保障との関係を議論している.信頼構築措置 (CBMs: Confidence-Building Measures) とは,国家間の敵意を減少させることで,衝突のリスクを減らす措置の全般をいう.元々は冷戦時代に提案された概念であるが,これを LLM 開発に適用することが具体的に提案されている.

4.5 生物学的脅威

LLM の登場により個人がエンパワーメントを受けており,生物学的脅威を作る障壁が低下していることは間違いない.

(Patwardhan et al., 2024) では,生物学的リスクに焦点を当てて,AI による安全リスク評価の手法と事前警鐘システムを模索している.この研究では,LLM によりリスクが増加するという統計的に有意義な証拠は得られていないが,この方面の研究の草分けとなっている.

5 アラインメント問題

6 文献紹介

References

Anderljung, M., Barnhart, J., Korinek, A., Leung, J., O’Keefe, C., Whittlestone, J., … Wolf, K. (2023). Frontier AI regulation: Managing emerging risks to public safety. OpenAI.
Andreas, J. (2022). Language models as agent models.
Chen, M., Tworek, J., Jun, H., Yuan, Q., Oliveira Pinto, H. P. de, Kaplan, J., … Zaremba, W. (2021). Evaluating large language models trained on code.
Eloundou, T., Manning, S., Mishkin, P., and Rock, D. (2023). GPTs are GPTs: An early look at the labor market impact potential of large language models.
Goldstein, J. A., Sastry, G., Musser, M., DiResta, R., Gentzel, M., and Sedova, K. (2023). Generative language models and automated influence operations: Emerging threats and potential mitigations.
Khlaaf, H., Mishkin, P., Achiam, J., Krueger, G., and Brundage, M. (2022). A hazard analysis framework for code synthesis large language models.
Kuditipudi, R., Thickstun, J., Hashimoto, T., and Liang, P. (2023). Robust distortion-free watermarks for language models.
Leng, Y., and Yuan, Y. (2023). Do LLM agents exhibit social behavior?
Lin, S., Hilton, J., and Evans, O. (2022). Teaching models to express their uncertainty in words. In Transactions on machine learning research.
Manning, S., Mishkin, P., Hadfield, G., Eloundou, T., and Eisne, E. (2022). A research agenda for assessing the economic impacts of code generation models. OpenAI. Retrieved from https://openai.com/research/economic-impacts
Mohri, C., and Hashimoto, T. (2024). Language models with conformal factuality guarantees.
Patwardhan, T., Liu, K., Markov, T., Chowdhury, N., Leet, D., Cone, N., … Mandry, A. (2024). Building an early warning system for LLM-aided biological threat creation. OpenAI. Retrieved from https://openai.com/research/building-an-early-warning-system-for-llm-aided-biological-threat-creation
Rombach, R., Blattmann, A., Lorenz, D., Esser, P., and Ommer, B. (2022). High-resolution image systhesis with latent diffusion models. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR), pages 10684–10695.
Shoker, S., Reddie, A., Barrington, S., Booth, R., Brundage, M., Chahal, H., … Young, J. (2023). Confidence-building measures for artificial intelligence: Workshop proceedings.
Sobchuk, M. (2024). How ukraine uses AI to fight russian information operations.
Tamkin, A., Brundage, M., Clark, J., and Ganguli, D. (2021). Understanding the capabilities, limitations, and societal impact of large language models.
Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.-A., Lacroix, T., … Lample, G. (2023). LLaMA: Open and efficient foundation language models.
Wang, Y., Kordi, Y., Mishra, S., Liu, A., Smith, N. A., Khashabi, D., and Hajishirzi, H. (2023). Self-instruct: Aligning language models with self-generated instructions. In A. Rogers, J. Boyd-Graber, and N. Okazaki, editors, Proceedings of the 61st annual meeting of the association for computational linguistics (volume 1: Long papers), pages 13484–13508. Toronto, Canada: Association for Computational Linguistics.

Footnotes

  1. 日経新聞 (2/19/2024)↩︎