シェア:

ジャカルタ-インドネシア政府は、特定の州の勢いで偽のニュースやデマを広める際の人工知能/ AIテクノロジーまたは人工知能ユーザーの危険性を予測しなければならないと考えられています。特に2024年の地方首長選挙(ピルカダ)中。 「後で、特に選挙の近くで、他に何のために作られた人格(ピルカダ、赤)があるという多くのディープフェイクがあるでしょう」と、コンサルティングアスニーインフォセクルティのヘッドアディティアヌグラプトラは、5月15日水曜日にアンタラの南ジャカルタで会ったとき、言いました。 Aditya氏によると、AIテクノロジーによって生成された偽のニュース攻撃を防ぐために政府がしなければならないことがいくつかあります。 第一に、政府は通信情報省(Kemenkominfo)を通じて、AI技術生産のデマ情報を区別する方法について一般市民に教育を提供しなければならない。 最大限のカウンセリングにより、一般の人々はソーシャルメディア上の情報を選択する際により徹底的になるという意識を持つことになります。 「一般の人々がフィルタリングできるように、この情報を見るとすぐに感情を熱くする当事者がいくつかいるかもしれないので、この情報の真実を確認してください」とAdityaは言いました。 さらに、政府はデマになりがちな情報を検出するために特別な技術も改善する必要があります。アディティヤはまた、ビデオにAIテクノロジーの存在を検出できる特別なツールの例を挙げました。 「音声の動きや撮影されたデータから、偽のニュースがあるかどうかを検出することができます」とAdityaは言いました。 この技術により、アディティヤは続けて、政府はソーシャルメディアを歩き回る情報を簡単に除外できます。 政府はまた、AI技術よりも現代的である可能性のある他のモードを検出するために、技術開発に従う必要があると考えられています。 これらの努力により、アディティヤは、選挙期間中にAIテクノロジーによる誤解を招くニュースの拡散者を最小限に抑えることができると信じています。

The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)