[本文]

国名:
米国
公開機関:
国立科学財団(NSF)
元記事公開日:
2018/10/24
抄訳記事公開日:
2019/01/04
元記事の言語:
英語

NSFが最先端のサイバーセキュリティ、プライバシー研究に7,820万ドルを支援

NSF announces $78.2 million to support frontiers of cybersecurity, privacy research

本文:

10月24日付け、国立科学財団(NSF)による標記記事の概要は次のとおりである。

NSFの「安全で信頼できるサイバースペース(Secure and Trustworthy Cyberspace: SaTC)」プログラムは32の州の225以上の新しいプロジェクトを7,820万ドルで支援すると発表した。これは幅広く研究や教育を支援するもので、人工知能、暗号学、ネットワーク・セキュリティ、プライバシー、ユーザビリティを含んでいる。

この新しい支援で代表的なものは「信頼のおける機械学習センター(Center for Trsustworthy Machine Learning: CTML)」で、幅広く経済・社会的インパクトを持つサイバーセキュリティ科学・工学での大きな挑戦となる。CTMLは5年間で1,000万ドルの支援を受ける大型フロンティアプロジェクトで、ペンシルバニア州立大学のほか、スタンフォード大学、バージニア大学、カリフォルニア大学バークレイ校、同大学サンデイエゴ校、ウィスコンシン・マディソン大学など、いくつかの機関が集まり、分野の垣根を越えたプロジェクトである。

「SaTCプログラムへのNSFの投資は、プライバシーや使い勝手の良さを保ちながら、サイバー・システムを悪意のある行動から守るための知識を進歩させる。このプログラムのゴールは、システムとアプリケーションの両方で安全なサイバー・システムをデザインし、構築し、運用するための基本的な新しい方法を見つけ、重要なインフラを守り、人々に安全とプライバシーについて気づかせ、教育することである。」とNSFコンピュータ情報科学工学局局長のクロセ氏は言う。

人工知能に基づいたシステムの信頼性
昨今の機械学習は、様々なドメインで計算推論を急激に改良しており、多くの業務で人間のパフォーマンスを上回っている。しかしながら、これらの進歩にもかかわらず、深刻な脆弱性が残っている。もし、学習の間に攻撃されたり、操作されたりすれば、画像認識システムは容易に騙され、有害ソフト検知モデルはうまくかわされ、問題をキャッチするためのモデルは脆弱なままとなってしまう。新しいフロンティアCTMLはより安心、安全な方法で未来のシステムを作る、いわば防衛技術の工場を開発するようなものになる。

「機械学習は我々の生活と仕事の仕方を根本的に変えている – 自動運転車から、デジタル・アシスト、そしてロボット製造にいたるまで ‐ コンピュータは複雑な推論を実行しており、その方法はつい10年前にはサイエンス・フィクションと考えていられてものだ。」と主任研究員であるパトリック・マクダニエル(ペンシルバニア州立大学ウィリアム・ウェイス冠教授)は言う。そして、「分かったことは、この新しい技術を推進しているアルゴリズムとプロセシングは攻撃に対して脆弱であるということである。機械学習が重要なシステムに広く導入される前に、強固で確たる保証の得られる頑丈な学習アルゴリズムに必要とされる理論と実践を開発する機会を今回のNSF支援で得た」と続ける。

[DW編集局+JSTワシントン事務所]