シェア:

ジャカルタ - 人工知能(AI)技術は、科学の発展にプラスの影響を与えるだけでなく、人間に悪影響を及ぼさないように適切に処理され管理されなければならない潜在的なリスクも持っています。

コミュニケーション・情報学のネザール・パトリア副大臣によると、AIの開発を支援し、コミュニティのデジタルリテラシーを強化することとのバランスをとる政策が必要です。

「AIは、慎重に処理する必要があるプライバシー権侵害や知的財産の乱用など、さまざまなリスクを伴うことを認めなければなりません」と、Nezarは10月10日火曜日に引用された公式放送で述べています。

さらに、通信情報副大臣は、インドネシアがAIリスクの処理と軽減の重要性を理解していることを強調しました。したがって、インドネシアは2020年からいくつかの国家政策を通じてAIベースの政府エコシステムの開発を開始しています。

「その中には、インドネシア共和国の人工知能2020-2045の国家戦略文書、AIベースのプログラミングビジネスライン開発基準の分類、および複雑なデータ処理に対応してきた個人データ保護法(PDP法)があります」と彼は言いました。

彼によると、AIを使用する際には、規制の促進と施行のバランスが必要です。なぜなら、AIはより広い利益を提供し、ネガティブなリスクを減らすことができるからです。

一方、同じイベントで、インターネットワールドの父としてよく知られているVinton G. Cerfは、プログラマーとしての経験に基づいてAIテクノロジーへの懸念を表明しました。

Cerf氏によると、AI技術はシステムの管理方法だけでなく、AIが機械学習として使用する材料の供給源に注意を払う必要があります。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)