AI の出現により、その技術的可能性に対する興奮と社会への潜在的な影響に対する懸念の両方が生じています。
AI の出現により、その技術的可能性に対する興奮と社会への潜在的な影響に対する懸念の両方が生じています。 AFP

急成長する技術を規制する際に政策立案者を導くことを目的とした水曜日に発表された研究結果によると、人工知能モデルには透明性が欠けている。

スタンフォード大学の研究者らは、大手AI企業10社をランク付けする「Foundation Model Transparency Index」を考案した。

最高スコア(54%)は、FacebookとInstagramの所有者であるMetaが7月に発表したAIモデルであるLlama 2に与えられた。

有名なチャットボット ChatGPT を開発した Microsoft が支援する企業 OpenAI の主力モデルである GPT-4 は、48% のスコアで 3 位にランクされました。

Google の PaLM 2 は 40% で 5 位で、Amazon が支援する企業 Anthropic の Claude 2 の 36% をわずかに上回っています。

スタンフォード大学基礎モデル研究センターの研究者リシ・ボンマサニ氏は、企業は80~100パーセントのスコアを目指すべきだと述べた。

研究者らは、「透明性の低下により、政策立案者がこの強力なテクノロジーを抑制する意味のある政策を立案することが困難になる」と述べた。

また、他の企業が自社のアプリケーションにその技術を利用できるかどうかを判断したり、学者が研究を行ったり、消費者がモデルの限界を理解したりすることが困難になると彼らは述べた。

「透明性がなければ、規制当局はこれらの分野で行動を起こすことはおろか、適切な質問をすることさえできない」とボンマサニ氏は述べた。

AI の出現は、その技術的可能性に対する興奮と、社会への潜在的な影響に対する懸念の両方を引き起こしました。

スタンフォード大学の調査によると、どの企業も自社のモデルやモデルが使用されている地理的位置に依存しているユーザーの数に関する情報を提供していないという。

研究者らによると、ほとんどのAI企業は自社のモデルに著作権で保護された素材がどれだけ使用されているかを明らかにしていない。

ボンマサニ氏は、「EUの多くの政策立案者だけでなく、米国、英国、中国、カナダ、G7、その他幅広い政府にとって、透明性は主要な政策優先事項である」と述べた。

EUはAI規制の先頭に立ち、年末までにこの技術を対象とする世界初の法律の制定にゴーサインを出すことを目指している。

主要7カ国(G7)は今年初めに日本で開催されたサミットでAIに関する行動を呼びかけ、英国は11月にこの問題に関する国際サミットを主催する予定だ。