人工知能(AI)の進歩を追いかけるように、先進国は文章や画像を自在に作り出す生成AIのルールの検討を始めた。
大事なのは著作権侵害や個人情報の拡散などのリスクを直視し、開発と利用のルールを確立することだ。米国が開発企業の自主性を重んじるのに対し、欧州連合(EU)は包括的な規制法を模索しており、各国の手法に違いがある。
政府は利用と規制のバランスを訴えているが、今必要なのは、AIを安全に使いこなす未来図を描くことではないか。AIを利用しながらリスクをどう管理していくのか。それぞれの分野ごとに責任ある構想がなければ、新たな規制の姿は見えてこない。
5月に開かれた先進7カ国首脳会議(G7広島サミット)は「信頼できるAI」の構築を目指すことで合意し、国際ルール策定の具体的な作業に入ることで合意した。経済協力開発機構(OECD)にも生成AIの影響分析を委ねた。
日本政府も「AI戦略会議」を発足させ、社会を混乱させかねない7項目のリスクを指摘。AIを暴走させないための「ガードレール」の必要を訴えた。利用に前のめりな姿勢は変わっていないが、規制の重要性にもようやく目を向けるようになった。
対話型の「チャットGPT」の登場をきっかけに、生成AIへの関心は急速に高まり、行政やビジネスの文書作成やデザインなどの創作に利用され始めた。規制が後手に回るのはやむを得ないが、あまりのんびりしているのは困る。
日本では、2018年に著作権法が改正され、権利者の許可を得なくても、AIが文章や画像を自由に学習できるようになった。しかし、今は脚本家、デザイナーらの間で著作権侵害への不安が高まっている。
政府はAIのリスクに対して「既存の法令で対応できる」としているが、本当にそうだろうか。権利侵害、偽情報の拡散、犯罪への利用などを防ぐため、新たな法規制の必要性を多面的に検討し直すべきだ。
開発企業の間でも、生成AIを市場投入する前に、システムに不備がないか時間をかけて点検する動きがある。社会的に有害な回答や画像が示されないように、社外の専門家やユーザーの意見も取り入れ、安全性を高めてほしい。
発売後は、AIの問題に気付いた利用者の意見に耳を傾けることが欠かせない。常識から逸脱した文章や画像が野放図に広がるのは困る。企業任せにせず、第三者機関や自主規制団体が苦情を受け付け、開発者に改善を迫る仕組みがほしい。
AI技術の中心であるアルゴリズムは秘密にされているが、差別や有害情報の流布といった深刻な問題が起きた場合には、公開を求めてもいいのではないか。人を傷つけるシステムを市場に出さない責任を、開発企業は自覚すべきだ。
自由な開発を規制が妨げると心配する意見もある。だが、開発と規制を対立的に捉える考え方には同意できない。技術の進化と公正な競争を実現するためにも、国際的な規制は欠かせない。
価値観が異なる権威主義国家との間でも、いずれ協議が必要になるだろう。そのためにもまず日米欧が主導し、国際的に調和できる規制の枠組みを示さねばならない。