シェア:

ジャカルタ-ChatGPTチャットボットからより正確なアウトプットを生成するOpenAIの取り組みは、欧州連合のデータルールの完全な遵守を保証するのに十分ではありません。これは、EUのプライバシー監督機関のタスクフォースによって述べられています。

「透明性の原則を遵守するために取られた措置は、ChatGPTのアウトプットの誤解を避けるのに有益ですが、これらの措置はデータ精度の原則を遵守するのに十分ではありません」とタスクフォースは5月24日金曜日にウェブサイトで発表されたレポートで述べています。

欧州の国家プライバシー監視機関を統合する機関は、イタリア当局が率いる国家規制当局がこの広く使用されている人工知能サービスについて懸念を表明した後、昨年ChatGPTのタスクフォースを設立しました。

報告書によると、一部の加盟国で国家プライバシーウォッチドッグによって開始されたさまざまな調査がまだ進行中であり、したがって、結果の完全な説明を提供することは不可能であると付け加えています。調査結果は、国家当局の間で「一般的なデノミネーター」として理解されるべきである。

データの正確さは、一連のEUデータ保護規則のガイド原則の1つです。

「事実として、このシステムの確率的な性質のために、現在のトレーニングアプローチは、偏見やでっち上げのアウトプットを生み出すことができるモデルを生み出しています」と報告書は述べています。

「さらに、ChatGPTが提供する出力は、実際の精度に関係なく、個人に関連する情報を含め、エンドユーザーによって正確な事実と見なされる傾向があります。」


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)