最終更新日:2025/11/29

Adversarial systems can expose vulnerabilities in neural networks by crafting inputs that cause incorrect outputs.

正解を見る

Adversarial systems can expose vulnerabilities in neural networks by crafting inputs that cause incorrect outputs.

音声機能が動作しない場合はこちらをご確認ください
編集履歴(0)
元となった例文

敵対的なシステムは、誤った出力を引き起こす入力を生成することでニューラルネットワークの脆弱性を露呈させることがある。

Sentence quizzes to help you learn to read

編集履歴(0)

ログイン / 新規登録

 

アプリをダウンロード!
DiQt

DiQt(ディクト)

無料

★★★★★★★★★★