《零点对冲》2024年4月20日泰勒-德顿的整理
与每一次技术进步一样,生成式人工智能工具,如OpenAI的ChatGPT、图像生成器Midjourney或人工智能初创公司Anthropic创建的聊天机器人Claude,在用于提高生产力和创造的同时,也越来越多地用于诈骗和滥用。
在这股新的恶意内容浪潮中,深度伪造尤其值得注意。
这些人工生成的视听内容包括通过冒充政客诈骗选民,或制作未经同意的名人色情图片。
然而,据Statista的FlorianZandt报道,微软公司最近的一项调查显示,全球网络用户最担心的是造假、诈骗和滥用。
在微软于2023年7月至8月对17个国家进行的调查中,71%的受访者非常担心或有些担心人工智能辅助的骗局。
信息图表:人工智能最大的危险是什么?|Statista
在没有进一步说明什么是此类骗局的情况下,它很可能与冒充公众人物、政府官员或受访者的熟人有关。
并列第二的是深度伪造和性虐待或在线虐待,占69%。
人工智能幻觉,指ChatGPT等聊天机器人因训练材料问题而将无意义的答案当作事实,排在第四位,而数据隐私问题,也就是与未经用户明确同意而在其公开数据上训练大型语言模型有关的问题,以62%的比例排在第五位。总体而言,87%的受访者至少在某种程度上担心人工智能会出现问题。
人工智能市场巨大,据各种资料估计,2024年的市场规模将在3000亿到5500亿美元之间。但是,调查结果表明,忽视其潜在的隐患和危险可能会对整个社会造成危害。在政治等敏感领域尤其如此。秋季美国总统大选迫在眉睫,社交媒体上必然充斥着人为制造的错误信息和虚假信息。
在最近一次关于选举周期中使用的深度伪造和人工智能的听证会上,深度伪造检测公司现实守护者的首席执行官本-科尔曼赞扬了生成式人工智能的某些方面,同时也强调了其危险性:
科尔曼说:"我无法坐在这里,一一列举所有针对美国人的恶意和危险的深度假冒行为,也无法说明它们会以何种方式对世界造成负面影响,侵蚀社会和民主的主要方面”。
"毕竟,我只有五分钟时间。我所能做的就是敲响警钟,让人们认识到深度伪造不仅会对民主,而且会对整个美国造成影响"。
为了我们自己的利益,"这条错误、虚假、恶意信息的新道路,是否会被"监管",以符合政府对"真相"的定义?
声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。