日本、AIの透明性促進を目的とした新たな開示基準を制定

SDKI によって発行されました : December, 2023

1702012410_2173.Japan-New-Rules-on-AI.webp

日本 AIに関する新しいルール

日本は金曜日、人工知能ビジネスに対する提案を発表しました。開放措置を通じて安全を維持する必要性を強調しています。これには、トレーニング データのリリースなどの活動が含まれる場合があります。 不要な制限を課さずにこれを行う必要があります。

政府のAI政策会議で、代表者らはガイドライン草案を提示した。政府は2024年度予算でAIに約11.1億米ドル(1640億円)を支出したいと明らかにした。2023年度予算比で約3.4億ドル(503億円)の増額となります。

東京都は今年後半にルールを制定する予定だ。法律による拘束力はありません。 企業に自主規制の基盤を与えなければなりません。それはアメリカ政府のやっていることとよく似ています。

企業は、業界における役割に基づいてこれらの法律を遵守する必要があります。当初のガイドラインでは、特に公平性と人権に関して企業が守るべき基本的なルールを定めた。

これらの原則は、人々が AI に対して抱いている懸念に対処することを目的としています。これらは AI の仕組みに関する秘密に焦点を当てており、人々に AI をさらに信頼してもらうことを目指しています。同時に、ビジネスを困難にすることなく、新しいアイデアを奨励します。安全性と進歩の間の適切なバランスをとることが重要です。 ガイドラインでは、AIの安全性を確保するための明確なルールを設けることがいかに重要かを強調しています。

これらのルールは現在も検討中です。これらは議論の余地があり、改善されるかもしれません。 日本はAIが経済にどれほど役立つかを理解しています。日本はこうしたルールを提案することで、公平かつ責任ある方法でAIが活用されることを望んでいます。この計画は、日本がAIの活用に真剣に取り組んでおり、業界の成長も望んでいることを示しています。

企業は 5 つのカテゴリーに分類されます。

  1. 人工知能を訓練する人たち
  2. 人工知能プラットフォームを作成する人たち
  3. 人工知能を使ったシステムを開発している人
  4. 人工知能を利用したサービスを提供する者
  5. そしてユーザー自身も

この提案には、AIをトレーニングして使用状況データを公開する企業が必要となります。人工知能プラットフォームの開発者は情報を明らかにする必要があります。これらは、プログラムの目標と潜在的な危険に関するものです。

人工知能システムの仕組みを理解することが必要です。これにより、外部関係者は望ましくないコンテンツが生成される可能性を事前に特定できます。トレーニング データの公開は、問題の特定に役立ちます。 知的財産権の侵害などの問題も含まれます。

この規則はまた、さまざまなサービスプロバイダーに対し、AIの使用状況をユーザーに明らかにするよう求めています。 公開性を保証するために第三者監査の利用を義務付けています。

AIを活用した日本の電子商取引企業、メルカリの代表者が洞察を語った。これらは、提案された基準は「意味がある」と述べた。 それは「各事業の責任範囲を明確にする」ためだ。

“この変化の激しい分野では、プロセス全体を継続する必要があります。社会全体の情報の高度化と共有です。"

独自のダイナミックAI技術を販売する電子メーカーも意見を共有した。NECは「ルールは開発の現状を反映すべきである」と述べた。

人工知能開発者に負担をかけずに情報を公開するにはどうすればよいでしょうか? それとも機密情報を暴露するのでしょうか? 同社の技術に関する情報は今後の議論のトピックとなるでしょう。

AI開発者らは、情報開示を強制された場合に利益が失われるのではないかと懸念を表明しています。村井秀樹首相補佐官はこの件について懸念を表明した。“ルールを守った企業が損をしないようにするにはどうすればよいかを考えていきます ”。

AI に関する規制はなぜ重要なのでしょうか?

これらのルールは、AI にデータを使用する際に公平かつ正直に保ち、データが倫理的に使用されるようにするのに役立ちます。AIの責任を高めながら、人々の権利とプライバシーを保護することを目指しています。日本が G7 諸国と協力して世界的な AI ガイドラインを策定していることは、責任ある AI に対する強い取り組みを示しています。これは他の政府が従うべき基準を設定します。

ガイドラインは次の 2 つのグループに分類されます。

  1. AIが従うべきルール。
  2. AIへの対応に特化したルール

これらの法律は、AI に伴うリスクに対処するために設計されています。しかし、AIは変化が早く、非常に複雑であるため、日本ではまだAIシステムに特化した厳格なルールを定めていないです。これらの法律の背後にある考え方は、AI の適切な使用を促進するために適応できる柔軟な規制を使用することです。

なぜ明確なルールがないのかというと、AI技術は常に進化しているからです。AI の急速な変化に固定ルールが追いつくのは困難です。厳格な規制の代わりに、AI テクノロジーの進歩に応じて変更できる適応可能なルールを設けるというアプローチです。

この AI 管理方法では、AI の進歩のペースに合わせてルールを柔軟にする必要があることが理解されています。その目的は、新しいアイデアと進歩を止めることなく、AI の倫理的な使用を導くことです。

結論

AI アプリケーションのオープン性を維持することは不可欠です。さまざまな業界にわたってその重要性が高まり続けています。 日本の行動は、人工知能の適切な適用のモデルを提供します。これは他の国と機関も追随できるものです。 大衆の信頼を得たいですか?人工知能の透明性の欠如に関する懸念に対処する必要があります。日本は人工知能システムに対する疑念を解明し、信頼を高めたいと考えています。これらは、トレーニング情報と意思決定手順を公開することでそうすることを目指しています。

Facebook
Twitter
LinkedIn