OpenAI 阻止了 20 起利用人工智能进行网络犯罪和虚假信息的全球恶意活动

2024-10-10 21:33:54 1 2012

OpenAI 周三表示,自今年年初以来,它已经在全球范围内破坏了 20 多个试图利用其平台进行恶意目的的操作和欺骗网络。



这项活动包括调试恶意软件、为网站撰写文章、为社交媒体账户生成传记以及为 X 上的虚假账户创建 AI 生成的个人资料图片。

这家人工智能公司表示: “威胁行为者不断发展和试验我们的模型,但我们尚未看到证据表明这会带来他们在制造全新恶意软件或吸引病毒式传播受众的能力上取得重大突破。”

该公司还表示,它扰乱了与美国、卢旺达以及程度较小的印度和欧盟选举有关的社交媒体内容生成活动,并且这些网络均未吸引到病毒式传播或持续的受众。

其中包括以色列商业公司 STOIC(也称为 Zero Zeno)的努力,该公司在社交媒体上对印度大选发表评论,正如Meta 和 OpenAI 在今年 5 月初披露的那样。
OpenAI 重点介绍的一些网络行动如下:

SweetSpecter是一家疑似来自中国的对手,利用 OpenAI 的服务进行 LLM 侦察、漏洞研究、脚本支持、异常检测规避和开发。据观察,该公司还针对 OpenAI 员工进行了未成功的鱼叉式网络钓鱼尝试,以传播 SugarGh0st RAT。
伊朗伊斯兰革命卫队 (IRGC) 下属组织Cyber​​ Av3ngers利用其模型对可编程逻辑控制器进行研究。
伊朗威胁行为者 Storm-0817 使用其模型来调试能够收集敏感信息的 Android 恶意软件、通过 Selenium 抓取 Instagram 个人资料的工具以及将 LinkedIn 个人资料翻译成波斯语。
此外,该公司表示已采取措施封锁多个群组,包括代号为“A2Z”和“Stop News”的影响力行动,这些群组的账户生成英语和法语内容,随后发布在多个网站和各个平台的社交媒体账户上。

“[Stop News] 对图像的使用异常丰富,”研究人员 Ben Nimmo 和 Michael Flossman 表示。“其许多网络文章和推文都附有使用 DALL·E 生成的图像。这些图像通常为卡通风格,并使用明亮的色调或戏剧性的色调来吸引注意力。”

OpenAI Bet Bot 和 Corrupt Comment 发现的另外两个网络分别使用其 API 与 X 上的用户进行对话并向他们发送赌博网站的链接,以及制造随后在 X 上发布的评论。

近两个月前,OpenAI 禁止了一组与伊朗秘密影响行动Storm-2035有关的账户,这些账户利用 ChatGPT 生成内容,其中包括关注即将到来的美国总统大选的内容。

尼莫和弗洛斯曼写道:“威胁行为者最常使用我们的模型来执行特定中间阶段的任务——在他们获得互联网访问、电子邮件地址和社交媒体账户等基本工具之后,但在他们通过一系列分发渠道在互联网上部署社交媒体帖子或恶意软件等‘成品’之前。”

网络安全
网络安全公司 Sophos 在上周发布的一份报告中表示,生成式人工智能可能被滥用,通过微目标电子邮件传播定制的错误信息。

这意味着滥用人工智能模型来编造政治竞选网站、人工智能生成的跨政治光谱人物角色以及根据竞选要点专门针对他们的电子邮件信息,从而实现新的自动化水平,从而可以大规模传播错误信息。

研究人员 Ben Gelman 和 Adarsh Kyadige表示:“这意味着用户只需稍加配置就可以生成任何内容,从良性的竞选材料到故意误导的信息和恶意威胁。”

“任何真正的政治运动或候选人都有可能支持任何政策,即使他们并不同意。像这样的故意误导可能会让人们支持他们并不支持的候选人,或者不同意他们认为自己喜欢的候选人。”

关于作者

小小小西瓜41篇文章191篇回复

安全之路上不断探索的小白...

评论1次

要评论?请先  登录  或  注册