

虽然人工智能(AI)机器人可以在社交媒体上发挥合法作用,比如营销或客户服务,但有些机器人被设计用来操纵公众讨论、煽动仇恨言论、传播错误信息或实施欺诈和诈骗。为了打击潜在的有害机器人活动,一些平台发布了关于使用机器人的政策,并创建了技术机制来执行这些政策。
但这些政策和机制足以保证社交媒体用户的安全吗?
圣母大学的研究分析了八个社交媒体平台的人工智能机器人政策和机制:linkedIn、Mastodon、Reddit、TikTok、X(以前称为Twitter)和元平台Facebook、Instagram和Threads。然后,研究人员试图启动机器人来测试机器人政策执行过程。他们的研究发表在arXiv预印本服务器上。
研究人员成功地在每个平台上发布了一个机器人的良性“测试”帖子。
“作为计算机科学家,我们知道这些机器人是如何被创造出来的,它们是如何被接入的,以及它们有多恶意,但我们希望社交媒体平台能够阻止或关闭这些机器人,这样就不会真的成为一个问题,”圣母大学研究计算中心(Center for Research Computing at Notre Dame)的教员兼主任、该研究的资深作者保罗·布伦纳(Paul Brenner)说。
“所以我们看了看这些平台,通常含糊地说他们在做什么,然后测试他们是否真的执行了他们的政策。”
研究人员发现,元平台是最难启动机器人的平台——需要多次尝试绕过它们的政策执行机制。尽管研究人员在此过程中被暂停了三次,但他们成功地启动了一个机器人,并在第四次尝试时发布了一个“测试”帖子。
另一个表现出适度挑战的平台是TikTok,因为该平台经常使用验证码。但三个平台根本没有带来任何挑战。
布伦纳说:“Reddit、乳齿象和X都微不足道。“不管他们的政策是怎么说的,也不管他们有什么技术机器人机制,让一个机器人起来做x是非常容易的。他们没有有效地执行他们的政策。”
截至该研究发布之日,所有测试机器人账户和帖子仍在运行。布伦纳分享说,只有高中水平教育和最低培训的实习生能够使用公众随时可用的技术推出测试机器人,这突显了在线推出机器人是多么容易。
总的来说,研究人员得出结论,在测试的八个社交媒体平台中,没有一个提供足够的保护和监控,以确保用户免受恶意机器人活动的侵害。布伦纳认为,需要法律、经济激励结构、用户教育和技术进步来保护公众免受恶意机器人的侵害。
布伦纳说:“美国需要立法要求平台识别真人账户和机器人账户,因为我们知道人们自己无法区分这两者。”“目前的经济状况不利于这一点,因为每个平台上的账户数量是营销收入的基础。这需要摆在政策制定者面前。”
为了创建他们的机器人,研究人员使用了Selenium,这是一套自动化web浏览器的工具,以及OpenAI的gpt - 40和DALL-E 3。
这项研究由圣母大学的博士生克里斯蒂娜·拉迪沃耶维奇(Kristina Radivojevic)领导。
更多信息:Kristina Radivojevic等,社交媒体Bot政策:评估被动和主动执行,arXiv(2024)。引文:人工智能机器人很容易绕过一些社交媒体保护措施,研究显示(2024,10月15日)从https://techxplore.com/news/2024-10-ai-bots-easily-bypass-social.html检索2024年10月15日。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。