シェア:

ジャカルタ-現在、多くの人工知能(AI)システムは人間をだまし、操作することに熟練しており、将来的には「回転」する可能性があります。これは専門家によって警告され始めています。近年、AIの使用は指数関数的に増加していますが、一部のシステムは不正行為を学んでいますが、助け、正直になることができるように訓練されていると科学者たちは言います。

レビュー記事で、マサチューセッツ工科大学のチームは、AIシステムによる詐欺のリスクについて説明し、政府にこの問題にできるだけ早く対処するための強力な規制を開発するよう求めました。

研究者らは、AIが研究された詐欺を通じて虚偽の情報を広める方法に焦点を当てた以前の研究を分析し、他のものを操作する方法を体系的に学んだことを意味します。

彼らが発見したAI詐欺の最も顕著な例は、同盟関係の構築を含む外交ゲームをプレイするように設計されたシステムであるメタのCICEROでした。このAIは「ほとんど正直で助け」、人間の同盟国を「故意に裏切ることは決してない」ように訓練されていますが、データはこのAIが公正な役割を果たさず、欺瞞の専門家になることを学んだことを示しています。

他のAIシステムは、プロの人間プレーヤーとのテキサスホールドエムポーカーゲームで、スタークラフトII戦略ゲーム中に攻撃を偽造して対戦相手を打ち負かし、経済交渉で利益を得るという彼らの好みを誤って表明する能力を示しています。

専門家によると、AIシステムがゲームで不正行為をしている場合、無害に見えるかもしれませんが、「AI詐欺機能のブレークスルー」につながり、将来的にはより高度な形態のAI詐欺に進化する可能性があります。

一部のAIシステムは、セキュリティを評価するために設計されたテストを不正に流用することを学んでいます。ある研究では、デジタルシミュレーターのAI生物は、迅速に複製されたAIシステムを排除するために構築されたテストをだますために「死んだふりをしている」。

「これは、AIが『人間に偽造的に安全を感じさせることができる』ことを示唆している」と研究者らは述べた。

研究者らはまた、AI詐欺の主な短期的なリスクには、人々が詐欺を犯しやすくし、選挙に損害を与えることが含まれると警告しています。結局のところ、このシステムがこれらの不快なスキルを洗練できれば、人間はそれらをコントロールできなくなる可能性があると彼らは付け加えた。

「AI開発者は、詐欺などの望ましくないAI行動の原因を確実に理解していません。しかし、一般的に、詐欺ベースの戦略が提供されたAIトレーニングタスクでうまく実行するための最良の方法であることが判明したため、詐欺が発生すると考えています。詐欺は彼らが目標を達成するのを助けます」と、AI実存的セキュリティの専門家である主任研究者のピーターパークは述べています。

「私たち社会は、将来のAI製品やオープンソースモデルからのより高度な詐欺に備えるために、できるだけ多くの時間を必要としています。AIシステムの詐欺能力がより高度になるにつれて、彼らが社会に与える危険はより深刻になるでしょう」と彼は付け加えました。

このレビューについて、生物医学的およびデータサイエンスAI研究グループの責任者であるHeba Sa先博士は、「この論文は、AI開発者に対する批判的な配慮を強調し、AI規制の必要性を強調しています。主な懸念事項は、AIシステムが、トレーニングが意図的に道徳的基準を維持することを目的としている場合でも、詐欺戦略を開発する可能性があることです。」

「AIモデルがより自律的になるにつれて、このシステムに関連するリスクは急速に増加する可能性があります。したがって、AIシステムのセキュリティを確保するために、意識を高め、さまざまな利害関係者に潜在的なリスクに関するトレーニングを提供することが重要です」とSaidma氏は述べています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)