「ヒロシマ・プロセス」:G7諸国は生成AIをより厳しく規制したいと考えている

G7諸国の代表は、生成型人工知能(AI)を新たな基準に基づいて規制する必要があることに同意した。 参加者はテクノロジーの急速な発展とその破壊的な可能性について懸念を表明した。 いわゆる「ヒロシマ・プロセス」に基づき、ChatGPT社からの規制提案が今年末までに入手可能になる予定だ。

広島では、テキスト、画像、ビデオの AI ベースのモデルが急速に成長する中、主要先進国は偽情報や政治的混乱の強力なツールを恐れています。 このため、G7諸国政府は閣僚レベルで人工知能の制限と規制に関する可能な枠組み条件について議論し、年末までに結果を提示する予定だ。

AIを開発する際には、それが人道的で信頼できるものであるかどうかに注意を払わなければならない、と日本の西田文雄首相は広島(日本)でのG7会議で要求した。 西田氏はまた、安全な国境を越えたデータフローを確保するために協力する取り組みに対する財政的支援も約束した。 ブルームバーグによると ただし、日本政府は AI に関して EU が要求するガイドラインよりも緩いガイドラインを好みます。

ジョージタウン大学法律センター技術法政策研究所の吉永京子上級研究員は、低所得国を含め、AI規制の議論にできるだけ多くの国を参加させることが重要だと述べた。 インドの非営利団体ワドワニ AI および先端技術センター (ムンバイ) の上級アソシエイト、羽深広樹氏は、政府が重大な問題を強力な法律で最終的に取り締まる重要性について説明します。 しかし、あまりに詳細な法律では技術的な変化に追いつけないと同氏は警告した。

ChatGPTと同社に対する特に厳格な規制の要求はすでに4月に議員によって推し進められており、OpenAIとChatGPTのボスであるサム・アルトマンさえも上院公聴会でより厳格な規制を主張した。 彼は、操作されたテキストの可能性を画像の可能性と比較し、自分の会社の言語モデルを「強化された Photoshop のようなもの」と表現しました。

AIの議論に加えて、先進国は中国に対するより厳しいアプローチで合意した。 中国でのビジネスやサプライチェーンのリスクを軽減する必要があります。 中国はルールを遵守し、市場に平等な競争条件を作り、中国との取引におけるリスクを軽減し、サプライチェーンを多様化する必要がある。

G7諸国は「強制的な経済対策」に反対したいと考えている。 中国がしばしば経済的優位性を政治紛争に利用し、他国に圧力をかけていることが懸念される。 ジョー・バイデン米国大統領の国家安全保障担当補佐官ジェイク・サリバン氏は、「オフラインにならないリスクを軽減したい」と述べた。 首脳会談が近づくにつれ、中国への正しい対処法を巡って意見の相違が生じたのは確かだ。 それにもかかわらず、各国が人民共和国と独自の関係を持っていることは認識されています。

機密技術を保護するため、G7諸国は、経済安全保障の観点から、海外投資(主に中国向け)に対して、より詳細な予備審査を実施したいと考えている。 米国のサリバン大統領補佐官(国家安全保障担当)によると、その後は各国がこの問題にどのように取り組むかを自ら決定する必要があるという。 したがって、国は、自国の国家安全保障にとって重要なライバル国の産業部門、たとえば防衛部門やテクノロジー部門に多額の資本を注入すべきではありません。

中国とのあらゆる相違にもかかわらず、G7諸国は安定的で建設的な関係への関心を強調している。中国は世界的な課題に関与しなければならず、また自らも関与することを容認しなければならない。 彼らは気候変動や金融安定などの問題で中国と協力したいと考えている。


(bme)

ホームページへ

Nishikawa Katashi

「Web オタク。情熱的なトラブルメーカー。オーガナイザー。アマチュア コーヒー マニア。ゾンビ マニア。」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です