人工知能分野におけるインドネシアのレジリエンス準備の測定

ジャカルタ - 「2030年までに人工知能(AI)を率いる人なら、2100年までに世界をリードするでしょう」 インドネシア語で、ブルーキング研究所米国が発表した声明は、「2030年にAIまたは人工知能の分野を率いる人は誰でも、2100年に世界をリードする」ことを意味します。
人工知能への世界の投資は、2020年までに600億米ドルに達しました。予測によると、この数字は2025年までに2倍以上になります。この統計は、世界中のデジタル技術の開発のスピードを確認します。これは、2021年半ばにインドネシア共和国の第7代大統領ジョコ・ウィドドが、人工知能の習得における競争は冷戦時代の空間戦争と同じであることを思い出させたことを考えると、合理的と考えることができます。
人工知能は人間の生活の不可欠な部分となっています。それは私たちが経験しているデジタル革命の主な推進力になりました。AIは、データ分析に基づいて予測、推奨事項の提供、意思決定を行うことができる機械システムです。これは、さまざまな業界、特にテクノロジーの分野で大きな変化をもたらします。
世界中で、AI技術の開発は大きな影響を与えています。PriceWaterhouseCoopers(PwC)の調査によると、AIは2030年までに世界の国内総生産(GDP)を15.7兆米ドルに引き上げる可能性を秘めています。中国や米国などの国々は、この技術の成長を活用する最前線に立つと期待されています。彼らはAI開発に関連するさまざまな主要なイニシアチブを開始しました。
米国国立研究開発機構(BRIN)の人工知能研究センターとサイバーセキュリティの主要専門家であるハマム・リザ氏は、このデジタル革命はインドネシアにおけるAI主権を理解することの重要性を示していると評価しました。この技術の急速な発展に伴い、インドネシアは、進行中の変革の恩恵を受けるだけでなく、技術分野での世界的な競争に取り残されないように、課題に直面する準備をする必要があります。
さらに、2億2100万人のインターネットユーザーと1億6700万人のソーシャルメディアユーザーを持つインドネシアは、重要な技術革命の危機にしています。AI主権は、この成長の真っ只中にある重要な問題です。インドネシアは、イノベーションの大きな可能性を維持しながら、国の文化的価値に合致するAIを開発し、組織するという課題に直面しています。
残念ながら、インドネシアには、明確な倫理規定を備えた国家戦略に裏打ちされたAIに関する規制がまだありません。実際、このAI技術が、気候変動をコントロールしながら、「破壊ロボット」の出現などの極端な悪影響を最小限に抑えるなど、前向きな解決策として浮上できるようにする必要があります。
「コミュニティが現在に追いつくだけでなく、AIで革新できるように、包括的な技術革新をサポートするエコシステムを構築するには、政府と利害関係者の協力が必要です」と、2025年2月2日日曜日、ハマムは述べています。
彼によると、AIの開発と使用を規制する戦略的な国家政策を策定することは非常に重要です。このポリシーは、個人データの保護に対応し、テクノロジーの悪影響を防ぐ必要があります。適切な予算配分があれば、政府はAIの研究、社会化、採用を支援し、発生する可能性のある脅威を予測することができます。
さらに、国際協力は、急速なグローバルAI開発に直面する上で鍵です。多くの国では、さまざまな問題をより効率的に解決するために人工知能を実装しています。他の国々との協力は、より広い社会に有益なイノベーションを開発するために不可欠です。AIの意味合いを広く認識するには、持続可能な成長を支える環境を作り出すためのすべての当事者からのコミットメントが必要です。
人工知能主権のための規制と政策
実際、政府は2020年に人工知能の発展の方向性を設定するために、国家戦略(Stranas KA)を発行しました。主な焦点は、AI倫理、AIポリシー、人材育成です。主な目標は、パンチャシラの価値に合ったイノベーションを生み出すことです。また、インドネシアのさまざまなセクターを支援するための研究と産業イノベーションの重要性を強調しています。
Stranas KAの4つの重点分野には、倫理(AIの開発と適用が道徳的原則と社会規範を遵守していることを保証する)、政策(AIの公正かつ責任ある適用を保証する規制の策定)、インフラ開発(AIの可能性を最適化するための適切なデジタルインフラストラクチャの構築)、およびデータ(AIイノベーションにおける重要なリソースとしてデータを効果的に管理および利用すること)。
テクノロジー評価応用庁(BPPT)が「インドネシアの人工知能国家戦略2020-2045」について実施した研究は、インドネシアにおけるAI主権の実施が様々な複雑な課題に直面していることを示している。主な課題の1つは、適切なデジタルインフラストラクチャを開発することの難しさです。さまざまな地域でのインターネットアクセスの不平等は、デジタルデバイドを悪化させ、テクノロジーの全体的な適用を妨げるリスクがあります。
さらに、インドネシアでのAI技術の規制もまだ限られています。米国と欧州連合は、AIのハード法に向けた規制を策定しています。インドネシアはまだ技術計画段階にあります。AIガバナンスを支配する特定の規制はまだありません。AIに関連するいくつかの側面は、個人情報保護法(PDP法)で規制されていますが、これはAIの実装のための強力な基盤を作成するのに十分ではありません。
Hammam Rizaは、インドネシアは現在、AI規制がデータとサイバーセキュリティを維持するための鍵となる時代にあることを明らかにしました。したがって、彼は、人工知能の倫理に関する2023年の通信情報大臣の回覧状第9号の発行に同意しました。この回覧は、プログラミングや電子システムなど、AIを使用する政府と民間の両方のビジネス関係者を対象としています。
同氏は、適用される技術方針は、電子情報および取引に関する2008年法律第11号(ITE法)の改正である2024年法律第1号に基づいていると説明した。また、個人情報保護に関する2022年法律第27号(PDP法)にも関連しています。これは、データ保護と透明性を優先することにより、AIの使用が常に倫理的AIに基づいているという政府のコミットメントを証明するようなものです。
「インドネシアのAI関連の規制は、世界の発展と一致していなければなりません。欧州連合(EU)は2024年にAI法第1689号を可決し、米国はAI権法を検討しています。これは、誤った情報やサイバー脅威などのAIリスクを軽減するための適切な技術政策の重要性を示しています。成熟した規制により、一般の人々に対するより良い保護が提供され、革新的で責任あるAIの使用が促進されます」とHammam氏は結論付けました。