人工智能文本生成器,太危险了,不能公开

OpenAI研究所的研究人员非常担心他们建造的人工智能文本生成器,他们表示不会向公众发布。OpenAI犹豫不决之际,包括科技公司和立法者在内的越来越多的人担心人工智能的进步会对道德产生影响。
2019-02-15 15:23:27     来源:华云网

2015年,汽车和火箭人埃隆·马斯克(Elon Musk)与颇具影响力的初创公司投资人山姆·奥特曼(Sam Altman)联手,将人工智能带入了一个新的、更加开放的领域。他们共同建立了一个名为OpenAI的研究机构,以进行新的人工智能发现,并将其用于公益。现在,该研究所的研究人员非常担心他们建造的东西,并表示不会向公众发布。

人工智能系统的设计初衷是学习语言模式。它在这方面做得非常好——在一些阅读理解测试中得分比任何其他自动化系统都要高。但当OpenAI的研究人员将系统配置为生成文本时,他们开始以不同的方式思考自己的成就。

OpenAI工程副总裁David Luan在谈到该系统生成的文本时说:“它看起来非常真实。”他和他的研究伙伴开始想象它可能被用于不友好的目的。Luan说:“有可能被有恶意的人利用制造出高质量的假新闻。”

这种担忧促使OpenAI发表了一篇关于其结果的研究论文,但没有发布完整的模型,也没有发布用于训练系统的800万个网页。在此之前,研究所经常在出版物中散发完整的代码,包括去年夏天的语言项目的较早版本。

OpenAI犹豫不决之际,包括科技公司和立法者在内的越来越多的人担心人工智能的进步会对道德产生影响。

谷歌也认为,不应该再天真地发布新的人工智能研究成果和代码。上个月,这家搜索公司在一份有关人工智能的政策文件中披露,由于担心被滥用,它对共享的研究软件施加了限制。该公司最近加入微软(Microsoft)的行列,在其财务申报文件中增加了警告投资者的措辞,称其人工智能软件可能引发道德担忧,损害业务。

OpenAI让连线杂志(WIRED)通过一个网页来玩它的文本生成器,这个网页让你输入系统使用的文本,就像一个写作提示。结果可能会被混淆,但是系统对歌词、诗歌和“这是酸奶煎饼的食谱”等提示的重复方式证实了Luan的观点,即输出结果可能看起来非常真实。

然而,不需要花太多的时间,系统就能解开类似于假信息艺术家作品的段落。当连线杂志(WIRED)输入“希拉里·克林顿(Hillary Clinton)和乔治·索罗斯(George Soros)”时,OpenAI的系统写道:

“…他们的议程似乎是创建一个政治运动,索罗斯和他的政治机器和克林顿是仅有的两个主要参与者。这是索罗斯和克林顿第一次被录像拍到直接串通宣传同一种错误的说法。在泄露的录音中,关键的披露之一是,克林顿向一名俄罗斯银行家承认,她在Uranium One交易获得国会批准之前就知道它。视频显示,希拉里和特朗普的谈话要点相同,最初是由一位反特朗普的共和党捐赠者雇佣的Fusion GPS承包商起草的。泄露的音频是迄今为止最清晰的证据,证明克林顿竞选团队和希拉里基金会勾结Fusion GPS制造针对特朗普总统的宣传。”

OpenAI政策主管杰克•克拉克(Jack Clark)表示,这个例子表明,这类技术可能会改变网上虚假信息或恶意攻击背后的流程,其中一些已经使用了某种形式的自动化。“随着文本制作成本的下降,我们可能会看到坏人的行为发生改变,”他说。

该示例反映了网上文本的性质以及机器学习系统怎样试图模拟其训练数据中的内容的。西北大学(Northwestern)教授克里斯蒂安•哈蒙德(Kristian Hammond)表示:“这些东西读起来很棒,但不一定是真的。它是学习表面结构——根据我所知道的,我能说些什么听起来是正确的?”OpenAI的研究人员发现,他们的系统在编写文本时使用了一些毫无意义的场景,比如水下火灾。

哈蒙德与人合作创办了一家名为“叙事科学”(Narrative Science)的初创公司,该公司通过将数据转换成文本来生成财务报告等商业文件。他说OpenAI的系统表现出令人印象深刻的流畅性,在创意项目中可能有用。OpenAI的研究是基于最近在处理文本的软件方面取得的突出的进步,这种进步得益于新的机器学习系统,该系统能够更好地在文本中搜索单词含义的上下文线索。

然而,为了使编写的机器具有广泛的用途,它们可能需要能够可靠地坚持事实或基于某种外部数据。哈蒙德说:“我希望我们现在能找到方法,把有关世界的真实数据、真相,与这种系统联系起来。”

如果你的工作是在互联网上发布谎言,那么真相并不重要。但这类项目可能比那些从事叙事科学的金融公司更早发现OpenAI等文本生成工具的用途。

OpenAI的文本生成器的一个版本是在亚马逊的产品评论上进行培训的,它演示了额外的培训如何使其适应特定的任务或攻击。试图提振或拉低产品或企业的虚假评论,已经让Yelp等公司头疼,并在政治纠纷中成为武器。

在被要求写一篇一星书评时,系统写道:“我讨厌汤姆·西蒙尼特(Tom Simonite)的书。”

“汤姆·西蒙尼特可不这么简单。他没有给你足够的信息使你对某一主题的阅读感到愉快。他有超过400页的脚注,所以这是一种让你的作品脱离主题的方法。当然,你永远不会真正觉得作者对他的主题有一个清晰的视角。他没有给你足够的细节,关于一群人将如何一起来解决一个问题,或来解决一个问题。这本书对我来说太压抑了,我甚至在谈论它的时候让我感到我想要击打kindle。”

OpenAI对人工智能生成的文本的负面影响的担忧,呼应了人们的担忧,即用机器学习制作的“深度假”视频可能会对选举造成影响,或传播虚假信息。OpenAI的Clark将该实验室的文本生成系统比作在2015年研发的图像生成技术深度伪造(deepfake),当时没有人太担心假图像。

这项技术迅速成熟,在一名匿名程序员发布了他或她开发的将好莱坞明星插入色情视频的工具后,这项技术变得很容易获取。五角大楼目前正投入数百万美元研究如何检测人工智能篡改的图像,上月,一名共和党参议员提出一项法案,试图将制造和传播深度伪造图像的行为定为犯罪。

Clark说OpenAI希望通过表达对自己代码的关注,能够鼓励AI研究人员对他们开发和发布的内容更加开放和深思熟虑。尽管处理语言的机器学习软件一直在迅速改进,但没有人确切知道它将会持续多久,或者走多远。OpenAI项目的研究人员Alec Radford说:“这可能是一个s曲线,我们即将饱和,也可能我们将继续加速。”

科技新闻传播、科技知识普及 - 中国科技新闻网
关注微信公众号(kjxw001)及微博(中国科技新闻网)
微信公众号
微博

免责声明

中国科技新闻网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。


推荐阅读
已加载全部内容
点击加载更多