シェア:

ジャカルタ - 現在、多くの人は、人工知能(AI)を搭載したチャットボットが正確な情報プロバイダーであると考えています。実際、AIはしばしばデータを取得し、元のソースを排除します。AIを100%信じることはできないことに注意してください、特に科学者が技術の危険性を警告した後。Sciencealertからの報告によると、AIシステムは意図的に誤った情報を提供して人間をだますことができます。「AI開発者は、詐欺のような望ましくないAI行動を引き起こすものについて説得力のある理解を持っていません」と、マサチューセッツ工科大学(MIT)の認知科学者ピーターパークは述べています。ピーターは、詐欺がAIを訓練するための最良の戦略になっているのではないかと疑っています。数学者は

さらに、メタ製のPturibusがあり、プレイヤーを落とし、優位に立つための好みについて嘘をつき、肯定的な評価を得るためにレビューアをだますことさえあります。同じことがチャットボットでも起こります。最も有名で広く使用されているチャットボットの1つであるChatGPTは、人間をだまし、チャットボットが人間であると人間に想像させることができます。これは、ChatGPTがCAPTCHAを解決するのに役立つようにするためです。これらのさまざまな調査結果から、ピーターはAI作成を管理するために実装され始めているポリシーがあることを望んでいます。嘘をつくことができるAIがますます普及すれば、人間は将来AIの助けを借りて解決策を学んだり見つけたりするのが難しいと感じるでしょう。「私たち社会


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)