シェア:

ジャカルタ–OpenAIは、スパイ活動や活動を潜伏させたいパーティーを避けるために、会社のセキュリティ業務を強化しています。この手順は、情報が漏洩しないように実行されます。

フィナンシャル・タイムズのレポートによると、OpenAIはセキュリティを大幅に見直しています。これらの変更には、一部の従業員のアクセスを制限することも含まれます。伝えられるところによると、特定のスタッフのみが機密アルゴリズムにアクセスすることが許可されています。

この限定的なアクセスには、最新の製品に関する情報も含まれます。このアクセスを制限するポリシーは、情報テッシングと呼ばれ、OpenAIが人工知能(AI)o1モデルを開発している間に実装されました。

検証済みのチームメンバーのみがプロジェクトに関する情報にアクセスできます。さらに、チームは共有オフィススペースでのみAIモデルについて話し合うことができます。これは、情報が一般に漏洩しないようにするために行われます。

OpenAIはまた、オフラインコンピュータ上の専用技術を隔離していると伝えられている。このコンピュータは、指紋の形で生体認証アクセス制御を実装しています。そうすれば、特定の従業員だけがコンピュータを操作し、テクノロジーを見ることができます。

このコンピュータは、外部接続のニーズに対する明示的な同意を必要とするデフォルトで拒否されたインターネットを実装しています。OpenAIはまた、管理するデータセンターでの物理的セキュリティを強化し、サイバーセキュリティ担当者を拡張します。

このセキュリティオペレーションの変更は、ChatGPTの競合他社であるDeepSeekが今年初めに人気のあるAIモデルを発売した後に実装されました。当時、OpenAIはDeepSeekがAIモデルを不正にコピーしたと非難した。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)