2023年,随着一款智能聊天机器人的横空出世,让整个世界都彻底沸腾了起来。一时间,所有的人都在讨论它。更有很多人认为,Chat GPT的问世,意味着人类科技,成功迈入了新时代。
然而,正当人们为之大肆欢庆的时候。特斯拉首席执行官埃隆·马斯克、苹果的联合创始人史蒂夫·沃兹尼亚克以及其他几位科技巨头,却突然共同发布了一封,写给未来人类研究所的信,并呼吁暂停QPT4的开发。
(相关资料图)
此举不禁令人费解,为何一众以科技创新为生的科技大佬,会写这样一封信呢?又是什么让身为Open AI的创始人之一,且志在带领人类移民火星的埃隆马斯克,公开反对自家人工智能的发展呢?他们,究竟在害怕什么?
一、机密外泄
作为生成性人工智能,ChatGPT需要通过海量的内容来完成自我学习。然而,这却正是它最大的问题所在。因为在这个过程中,ChatGPT难免会搜集一些过于隐私和机密的内容,并存在泄露的风险。
鉴于此,目前意大利已宣布禁用。同时,包括德国、法国、西班牙、爱尔兰在内的多个欧洲国家,也针对相关问题展开了调查。相信短时间内,这个问题不会得到妥善的解决。
二、侵权问题
想象一下,如果你梵高、达芬奇还在世,却看到市面上到处都是以他们的名义、按他们的风格制作的艺术品,却并非出自本人之手,几位艺术家将作何感想?
大家不必惊讶,因为类似的事情已经发生了。艺术家凯利·麦克卢南,就因AI在未经本人授权的情况下,将其作品用作自我学习,而将两家人工智能公司告上了法庭。
三、失控风险
尽管目前,GPT4还达不到AGI的水平。但至少在某些情况下,它已经可以通过图灵测试了。这代表着,GPT4所表达的智能,已经可以让人类无法分辨自己究竟是在和真人还是机器交流了。
不仅如此,有报道称,在某项旨在观察GPT4是否能展示自我意识和寻求权力行为的实验中,它成功撒谎欺骗了一个真人,并在这个人的帮助下,成功绕过了专门为保护机器而设计的系统屏障。
更可怕的是,它竟然能引诱人类向其提供开发文档。并在30分钟内,就拟定出了一个完整的“外逃越狱”计划。
AI的这番操作,令我们不禁想起了黑客帝国与终结者中,人类与机器争夺地球统治权的画面。
在令人不寒而栗的同时,它也引发了我们的思考。人类,真的应该开发最终可能超过并取代我们的非人类思想吗?
尽管在目前来看,人工智能还没能完全超越人类。但是其成长速度,却是我们无法忽视的。毕竟,如果AI模型足够强大,那么它完全可以在几分钟内读完一本书。
这意味着,它能够以极短的时间读完全世界所有的书,掌握全部的人类科技,轻松完成普通人,可能穷尽一生也无法做到的事情。相信在可想见的未来,人工智能必将进化成为,我们人类最不愿意它成为的样子。
或许这些,才是马斯克等一众科技大佬们所惧怕的吧!
对此,大家是怎么看的呢?你觉得人工智能,会永远甘于在人类的控制之下吗?请在评论区,留下您的答案!