人工知能 (AI) はユーザーに多くのメリットを提供し、生活を楽にします。 企業や組織も、効率性を高めるために AI への依存を強めています。 日本政府はこの技術の過剰利用を防ぐ措置を講じたいとしている。
数日前、関連政府委員会はAI利用に関するガイドラインの初案を発表した。 これらは AI 開発者に対し、プログラムが独自の機械学習の基礎として既成のデータを使用しないようにするよう求めています。 同時に、開発者はテクノロジーとのやり取りの記録を保持することを要求されるべきです。
ガイドラインは国際的に適用されるべきである
プログラムやアプリケーションで問題が発生した場合は、これらのプロトコルを提示する必要があります。 委員会は現在、日本のAI戦略を詳しく検討している。 ガイドラインは年末までにまとめられる予定だ。 今年、日本は主要先進7か国のグループであるG7の議長国でもあり、世界各国と協力していきます。 他のメンバーも共通のルールを共有しているこれは AI 開発者にも当てはまります。
このプロジェクトでは、ビジネスで使用される AI 関連アプリケーションに関する 10 の基本ルールを定義しています。 人権保護に関する公平性と透明性を確保することを目的としています。 この規則は、関係者の同意なしに個人データが第三者に渡されることを防ぐことも目的としています。
ユーザー、再販業者、およびユーザーが責任を負います
この規則では、個人または企業からのデータがどのように取得されたかに関する情報の提供も求められています。 このデータには、その情報が何に使用されたのかも示されている必要があります。 AI開発者、AI関連サービスプロバイダー、ユーザーはいずれも一定のルールに従い、責任を負う必要があります。
ガイドラインには、さまざまなカテゴリーの原則が含まれています。 開発者は、プログラムが正確かつ最新のデータを提供することを保証し、使用が許可されていない情報に AI がアクセスできないようにするための措置を講じる必要があります。 プロバイダーはユーザーに対し、第三者にアクセスされたくない個人データを入力しないよう警告する必要があります。 同時に、その使用は特定の目的にのみ制限されるべきです。 目標は、犯罪者がテクノロジーを利用して違法行為を行うのを防ぐことです。
「Web オタク。情熱的なトラブルメーカー。オーガナイザー。アマチュア コーヒー マニア。ゾンビ マニア。」