シェア:

ジャカルタ-欧州連合の産業責任者であるティエリー・ブルトン氏は、最近提案された人工知能に関する新しい 規則は、ChatGPTやAIテクノロジーなどのチャットボットを取り巻くリスクに関する懸念に対処することを目的としていると述べています。

発売からわずか2か月後、ユーザーの需要に応じて記事、エッセイ、ジョーク、さらには詩を生成できるChatGPTは、歴史上最も急成長している消費者向けアプリとして評価されています。

一部の専門家は、そのようなアプリケーションで使用されるシステムが盗用、詐欺、および誤った情報の拡散に悪用される可能性があるという懸念を表明しています。人工知能の支持者がそれを技術的な飛躍と呼んでいるときでさえ。

ブルトン氏は、マイクロソフトが支援する民間企業であるOpenAIのChatGPT  とAIシステムがもたらすリスクは、 テクノロジーのグローバルスタンダードを設定するために昨年提案した規制の緊急の必要性を強調していると述べた。規則は現在、ブリュッセルのEU委員会によって議論されています。

「ChatGPTが示したように、AIソリューションは企業や市民に大きな機会を提供することができますが、リスクをもたらす可能性もあります。これが、高品質のデータに基づいて信頼できるAIを確保するために強力な規制の枠組みが必要な理由です」と彼はロイターに書面でコメントしました。

MicrosoftはBreton氏の発言についてコメントを控えた。アプリが生成AIと呼ばれる技術を使用しているOpenAIは、コメントの要求にすぐには応答しませんでした。

OpenAIはウェブサイトで、安全で有用なAIの構築を目指しているため、「すべての人類に利益をもたらす」人工知能を生み出すことを目指していると述べています。

EU規則案では、ChatGPTは、雇用のための候補者の選択やクレジットスコアリングなどのリスクの高いものを含むさまざまな目的に使用できる汎用AIシステムと見なされています。

ブルトン氏は、OpenAIがリスクの高いAIシステムのダウンストリーム開発者と緊密に連携して、提案されたAI法への準拠を可能にすることを望んでいます。

ロイターが引用したように、「ジェネレーティブAIが定義に含まれたばかりであるという事実は、テクノロジーが進化する速度と規制当局がこのペースに追いつくのに苦労していることを示しています」と米国の法律事務所のパートナーは述べています。

人工知能の開発に携わるいくつかの企業の幹部によると、彼らは自社の技術が「高リスク」のAIカテゴリに分類され、コンプライアンス要件の厳格化とコストの上昇につながることを恐れています。

AIを実装する業界団体の調査によると、回答者の51%がAI法の結果としてAI開発活動の減速を予想しています。

「効果的なAI規制は、最もリスクの高いアプリケーションに集中する必要があります」と、MicrosoftのBrad Smith社長は2月1日水曜日の ブログ投稿に書いています。

「私が楽観的な日もあれば、人類がAIをどのように使用するかについて悲観的な日もあります」と彼は言いました。

ブルトン氏は、欧州委員会は欧州連合理事会および欧州議会と協力して、汎用AIシステムに関するAI法の規則をさらに明確にしていると述べた。

「人々は、人間ではなくチャットボットを扱っていると言われる必要があります。透明性は、偏見や虚偽の情報のリスクに関しても重要です」と彼は言いました。

生成型AIモデルは、著作権侵害の申し立てにつながる適切な応答を作成するために、大量のテキストまたは画像でトレーニングする必要があります。

ブルトン氏は、AI規制に関する議員との今後の議論はこれらの側面をカバーすると述べた。

学生による盗作に対する懸念から、米国の一部の公立学校とフランスの大学であるパリ政治学院はChatGPTの使用を禁止するようになりました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)