ジャカルタ - 現在、国のネチズンの大半が選挙の延期を望んでいるという彼の主張の正当性として、ルフト・ビンサール・パンジャイタン海事・投資大臣によって提出されたビッグデータが疑問視されるに値する。
Luhutが主張したビッグデータの 内容を明らかにしたくなかったので、1億1000万人のソーシャルメディアユーザーの声が含まれていただけでなく、データがさまざまな方法でどのように解釈され、テストされ、結論が導かれたかが正しいという理由でもありました。選挙が延期された場合、インドネシアのネチズンの大半がより合意された場合に結論を出すなど。
スイス・ジャーマン大学のデータマイニングコースの講師であるAlva Erwin氏によると、ビッグデータに関する結論を飛び出す際には注意する必要があります。
「たった一つの情報源から結論を出すべきではない。研究方法では、理想的にはクロスチェックを行いました, "アーウィンは言いました.「結論は、その精度が許容されるように、複数のソースから理想的に引き出されるべきです。
ルフトの場合、大臣は彼が持っていたデータをさらに説明することに消極的だったので、彼が持っていたと主張するビッグデータから結論に達した方法も不明です。
「ビッグデータに関する結論に飛びつくには、検証が必要だと思います。私は結論にジャンプする彼の(ルフトの)方法が何だったのか分かりません。しかし、すべては検証とクロスチェックを行う必要があります」と、アーウィンが言いました。
残念ながらLuhut氏は、ビッグデータとその結論が検証されたかどうかも説明しませんでした。
Erwinによると、ビッグデータ自体は大規模なデータセットであり、所有するインフラストラクチャでの処理が困難です。ビッグデータの特性は、4、体積、速度、多様性、真実性です。
データが非常に大きく、処理が困難な場合のボリューム。データが表示されたときの速度がデータ自体の速度のため。多様性は、データの複雑な型と型です。データ の真または不正な要素です。その後、データは 構造化され、半構造化され 、構造化されていません。
「このビッグデータの大きさの明確な尺度はありません。一連のデータは、所有するインフラストラクチャで処理するのが難しい場合は、ビッグデータと見なすことができます」と、erwinが言いました。
このビッグデータは、ソーシャルメディア、ツイッター、フェイスブック、インスタグラムなどの会話で入手できます。同様に、オンラインメディア、ラジオ、テレビ、コメントのニュースデータは、ビッグデータになるための情報源の1つになることができます。
「Luhut氏がビッグデータをどこから得たのか分かりませんが、彼はチームを持っていて、ソーシャルメディア にアクセスできるのかもしれません。しかし、 結論にジャンプするに、クロスチェックは、より正確に行われるべきであり、その妥当性を説明することができます、「アーウィンは言いました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)