2024-06-05 23:21来源:本站编辑
网络安全专家担心,人工智能生成的内容有可能扭曲我们对现实的看法——在充满关键选举的一年里,这种担忧更令人不安。
但一位顶级专家却反其道而行之,他认为深度造假对民主构成的威胁可能被“夸大了”。
思科Talos安全情报和研究小组的技术主管马丁·李告诉CNBC,他认为深度造假虽然本身就是一项强大的技术,但不如假新闻那么有影响力。
然而,他补充说,新的生成式人工智能工具确实“有可能使虚假内容的生成变得更容易”。
人工智能生成的材料通常可以包含常见的可识别指标,表明它不是由真人制作的。
尤其是视觉内容,已被证明容易受到缺陷的影响。例如,人工智能生成的图像可能包含视觉异常,例如一个人有两只以上的手,或者一个肢体被合并到图像的背景中。
在人工合成的语音音频和真人的语音片段之间进行分辨可能会更加困难。但专家们表示,人工智能的水平仍然取决于它的训练数据。
然而,客观地看,机器生成的内容通常可以被检测到。无论如何,内容的生成不太可能限制攻击者。”
专家此前曾告诉CNBC,他们预计人工智能产生的虚假信息将成为即将到来的世界各地选举的主要风险。
企业科技公司Appian的首席执行官马特·卡尔金斯(Matt Calkins)表示,人工智能“用处有限”。该公司帮助企业更容易地利用软件工具制作应用程序。
他补充说,今天的许多生成式人工智能工具可能很“无聊”。“一旦它了解了你,它就可以从令人惊叹变成有用的东西,但现在它还不能越过那条线。”
卡尔金斯在本周接受美国全国广播公司财经频道采访时表示:“一旦我们愿意信任人工智能,让它了解我们自己,那将是真正令人难以置信的。”
卡尔金斯警告说,这可能会使它在未来成为一个更有效、更危险的虚假信息工具,并补充说,他对美国在监管这项技术方面取得的进展感到不满。
他补充说,可能需要人工智能制造出一些极其“冒犯”的东西,美国立法者才会采取行动。“给我们一年时间。等到人工智能冒犯了我们再说吧。然后也许我们会做出正确的决定。”“民主是被动的制度,”他说。
不过,无论人工智能有多先进,思科的李表示,还是有一些经过验证的方法可以发现错误信息——无论是机器还是人类制造的。
“人们需要知道这些攻击正在发生,并注意可能使用的技术。李建议,当遇到触发我们情绪的内容时,我们应该停下来,暂停一下,问问自己信息本身是否可信。
“它是由信誉良好的媒体发布的吗?”其他知名媒体是否也在报道同样的事情?”“如果没有,这可能是一个骗局或虚假信息活动,应该被忽略或报告。”