媒体误读夸大,人工智能新闻的炒作何时可以结束?

   日期:2024-12-08     作者:zrudk       评论:0    移动:http://mip.riyuangf.com/mobile/news/6666.html
核心提示:媒体误读夸大,人工智能新闻的炒作何时可以结束?人工智能今年6月,国外一篇《AI寒冬将至》的文章曾引发业内对人工智能发展的争
媒体误读夸大,人工智能新闻的炒作何时可以结束? 人工智能

今年6月,国外一篇《AI寒冬将至》的文章曾引发业内对人工智能发展的争议,自动驾驶事故频发、AI军事化以及AI会导致人类失业等话题,也不断被媒体所报道,受众对AI的质疑和不信任感在增加。

媒体掌握舆论话语权,AI研究员掌握着专业技术,但两者的矛盾越来越大,面对媒体的误读和炒作,甚至很多科学家都要专门发文或出书进行辟谣和纠正。但这样的情况是怎么发生的?媒体的角色应该是什么?又该怎么避免呢?

去年6月,Facebook人工智能研究部门的五位研究人员发表了一篇研究报告,展示了机器人模拟人类进行谈判的对话情形,发现机器人偶尔会说一些很奇怪的话,比如:“对我来说,对我来说,对我来说,对我来说,对我来说球没什么用。”这在当时被认为是开发出了一种机器人之间进行交流的“方言”。

这项研究并没有新的突破,所以业内觉得没什么,但传到媒体那就变成了另外一件事,他们觉得这是一件很严重的事情。

比如,Fast Company(钛媒体注:美国最具影响力的商业杂志之一)发表了一篇题为《人工智能发明了人类无法理解的语言,我们应该阻止吗?》的文章,全篇都在描述机器人不断出现偏离标准英语的交流,更重要的是,“Facebook的研究员是在认为这些机器人失控的情况下,决定“拔掉插头”,结束这项研究。”

这篇文章出来后持续发酵,并且引发很多媒体的跟风,甚至煽动大家的恐惧情绪,称Facebook的工程师因为机器人进行了新创语言的自主交流而感到恐慌,不得已叫停了他们的AI研究项目。

《太阳报》还说“这与电影《终结者》的情节非常相似,其中有一个机器人出现自我意识后对人类发起了战争”。

对于这些由媒体制造的“耸人听闻”消息,卡耐基梅隆大学机器学习系的助理教授Zachary Lipton感到万分沮丧。根据他的说法,近年来“机器学习”和“深度学习”等话题越来越受关注,导致了这种“见缝插针”的低质新闻的泛滥—— Lipton称之为“AI误报风向”(AI misinformation epidemic)——不但歪曲了研究目的,还对人们正确理解该行业的发展造成了负面影响。

在这种情况下,越来越多的AI研究员也同样体会到了Lipton的挫败感,并开始担心人工智能猜测性的虚假报道,会促使人们对其发展前景抱有错误的预期,最终威胁到人工智能未来的进步以及其他新兴技术的应用。

事实上,媒体对计算机智能的夸大宣传并非我们这个时代所独有的,早在“计算”这一概念出现时就已经存在。而最早可追溯到1946年2月,当体型巨大的电子数字积分计算机Eniac发布时,记者纷纷将其描述为“电子大脑”、“数学怪人”、“天气预测者和控制者”,甚至是“巫师”。

为了遏制对这一新机器的炒作,避免大众受到虚假新闻的误导,著名英国物理学家DR Hartree在《自然》杂志上发表了一篇文章,描述了Eniac简单而有效的工作方式。

但让他难过的是,《伦敦时报》在他的研究基础上发表了一篇题为《电子大脑:解决谜题,带有记忆的阀门》的文章。对此,Hartree特意给该编辑写信,称“电子大脑”一词具有误导性,机器“无法替代人类的思想”。

遗憾的是,误导已经形成,在媒体眼中Eniac永远成为了“大脑机器”的象征。

无独有偶,美国康奈尔航空实验室的工程师Frank Rosenblatt在1958年提出了一种名为“感知器”(perceptron)的基本机器学习算法,按照设计,它只能通过培训来识别有限的模式范围,但《纽约时报》发表了一篇文章声称该算法是一个“电子大脑”,可以“自学”,并很快“能学会走路、说话、看、写作、自我复制,同时也能意识到自己的存在“。

到了20世纪60年代末,许多AI先驱者越来越明显地意识到自己低估了在机器中模拟人脑的难度。

1969年,曾公开表示机器智能将超越人类的马文·明斯基与计算机科学家西摩尔·帕普特共同撰写了一本书,来证明Rosenblatt的感知器无法实现专家们曾经的设想,同时还表示,其智能程度远没有媒体宣传的那么夸张。

这本书出版后,迅速在人工智能及其他领域传播开来,掀起了一场戳穿人工智能“神话”的潮流。1972年,哲学家Hubert Dreyfus发表了一篇名为《计算机所无法胜任的事情》的文章,对机器研究产生了深远的影响。一年后,英国数学家James Lighthill发表了关于机器智能发展现状的报告,得出结论——迄今为止,人工智能和机器智能领域所取得的成果,并没有产生预期的重大影响。

“神话”幻灭后,人工智能便迎来了第一个寒冬。在这期间,该领域的研究经费几乎全部放缓。就连那么曾经对“电子大脑”兴致勃勃的媒体,也失去了报道兴趣。

虽然在20世纪80年代和90年代出现了小规模的“复兴”迹象,但AI或多或少还是成为了科幻小说家们嘴边的话题,而计算机科学家也尽力避免使用人工智能一词,因为害怕被视为“白日梦空想家”。

人工智能第一个寒冬的结束,是在新一代研究人员发表关于成功应用“深度学习”技术的论文之后。虽然从本质上说,这也是一种类似于Rosenblatt感知器的数据统计技术,但计算能力的提高和庞大数据集的可用性,也意味着深度学习使语音识别、图像识别和语言翻译等任务变得切实可行。

而随着深度学习的火热,比如越来越多的企业斥资研究以及越来越多的学生展开学习,这也让沉寂了很长时间的媒体开始了大肆的报道。

2013年,John Markoff在《纽约时报》上撰写了一篇关于深度学习和神经网络的专题文章《像人脑的计算机:从经验中学习》,不仅回顾了60年前的媒体炒作,还提出了新技术所带来的可能性。其中提到“在未来几年中,深度学习将会催生新一代人工智能系统,完成一些简单的人工任务,包括看、听、说和操控等等。”

从那时起,关于“AI末日”,“人工大脑”,“超级人工智能”和“令人毛骨悚然的Facebook 人工智能机器人”等夸张报道便开始每天出现在各大媒体上。而随着越来越多的媒体对人工智能进行大肆宣传,研究员的失望和沮丧也越来越明显。

让人感到不安的不仅是记者的“知识盲区”,而是总有无知媒体自称是AI领域的“大V”,但实际上,他们只会在其博客上引用马斯克的话进行内容质量低下的炒作。

对此,Lipton表示:“人工智能要想取得实际进展需要一个清醒和知情的话题环境。但现在,大众了解的都是与事实不符的信息。对于信息的真伪与重要性,他们无从得知。”

Lipton并不是第一个对人工智能新闻炒作感到担忧的人。去年,美国机器人专家Rodney Brooks撰写了一篇文章,批评了麻省理工科技评论对人工智能未来发展前景的过度猜想。2013年,纽约大学教授Gary Marcus也写了一篇文章,认为炒作将带来不切实际的期望,进而让人工智能进入又一个寒冬。

但对于Lipton来说,AI寒冬的风险并不可怕,可怕的是媒体将如何误导人们对人工智能的理解。为了解决这个问题,他在去年3月创办了自己的博客,试图能凭借一己之力缓和那些耸人听闻的AI新闻。

到目前为止,Lipton的博客得到了媒体的一些关注,并有了固定的读者群,但Lipton知道他的影响是有限的,“这个行业真正需要的是培训记者,让他们更诚实,在这种情况发生之前,我的博客只是一块鹅卵石,激不起千层浪”。

新兴技术领域的专栏作家Joanne McNeil对此十分赞同,她也认为科技新闻中存在很大的问题,记者自身素质需要提高。虽然她也会在Twitter上调侃一些带有《终结者》风格的文章,但还是不会直接批判科技记者,因为在她看来,人工智能炒作的原因之一是资源分配不均。

按照她的话来说,如果你将记者的收入与人工智能研究员的收入进行比较,很快就会清楚为什么新闻记者无法写出具有专业深度文章,毕竟他们不能与专业人士相提并论。研究人员可以从炒作中受益,但对想要对这项技术进行批判的记者来说,只是在“受苦“。

事实上,相关知识过硬的媒体人很少,如果研究员真关心记者写出来的文章内容,那他们应该参与到新闻撰写中。同时,还要适当提高记者的收入,以便鼓励他们花费时间去认真挖掘与之相关的内容和专业知识。

虽然记者和研究人员之间更密切的互动,将是朝着正确方向迈出的一步,但澳大利亚国立大学工程与计算机科学教授Genevieve Bell表示,消除人工智能新闻的炒作是不可能的,因为关于电子大脑或Facebook机器人的文章并不是关于技术的,而是关于大众的文化希望与焦虑。

总的来说,现在,毫无根据的猜测与真正的研究之间的界限有些模糊,但从历史的发展角度来说,这种模糊的界限终究要明确起来,以便大众合理区分,哪些内容是重要的,哪些只是幻想。

 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号