ChatGPTで「誰でもサイバー犯罪者になれる」という厄介な現実

対話型のAI(人工知能)ツール「ChatGPT」を手がけるOpenAIは3月14日、最新版の機械学習ソフトウェア「GPT-4」の提供を開始し、
大きな話題をさらった。同社は、GPT-4でサイバー犯罪目的の利用を防ぐ施策をアピールしているが、
ある研究チームによると、リリースから数日のうちに前バージョンと同様にマルウェアやフィッシングメールを
作成させることができたという。一方で、彼らはGPT-4を使って、セキュリティホールを埋めることもできたという。

サイバーセキュリティ企業Check Pointの研究チームは、GPT-4へのリクエストから「マルウェア」という言葉を除くだけで、
OpenAIがマルウェア作成を防ぐために設けた制約を回避できることを示して見せた。研究チームのリクエストに対し、
GPT-4はPDFファイルを収集してリモートサーバーに送信するソフトウェアを作成したという。
さらに、GPT-4はセキュリティソフトウェアに検知される可能性を低くするために、Windows 10搭載のPC上で動作し、
ファイル容量を小さくする方法について、研究チームにアドバイスした。
https://news.yahoo.co.jp/articles/9164a53721d87624202395d5325519a507caa421