几百名大佬联名给ChatGPT们踩刹车,AI到了失控边缘?
2023-03-31 07:55:04 来源:差评
眼看 AI 起高楼、眼看它楼塌了?
(相关资料图)
就在昨天早上,一封公开信刷屏了差评君的朋友圈,著名安全机构生命未来研究所(Future of Life Institute,FLI)呼吁全球所有研究机构暂停训练比 GPT-4 更强的 AI.
至少六个月。
并且要在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。
咱别看这个研究所名字中二感满满,但在上面留下名字的,个个都是行业里的顶尖大牛。
图灵奖得主约书亚·本吉奥、苹果联合创始人史蒂夫·沃兹尼亚克、《人类简史》的作者尤瓦尔·赫拉利、以及什么地方都会刷一脚存在感的埃隆马斯克。
可以说是“满级人类闪耀时”了。
虽然,关于这次签名事件的准确性没有那么高,也有些人在自己不之情的情况下”被签名“ 了,比如一开始 OpenAI CEO 奥特曼的签名也在上面(我杀我自己?)
再比上面还有急速追杀的主角John Wick
但不管怎么说,可以感到大家都紧张起来了。
在信中,生命未来研究所提了四个问题:
我们一定要让机器用宣传和谎言充斥我们的信息渠道吗?
我们一定要把所有工作都自动化吗?包括哪些人工完全可以做得令人满意的工作吗 ?
我们一定要发展最终可能超过我们、超越我们、并取代我们的非人类思维吗?
我们一定要冒险失去对我们文明的控制吗?
讲道理,这些问题在过去几十年里一直是科幻小说中流行的题材。
但是可能谁也想不到,随着去年年底 OpenAI 一声枪响。
这些难题真真切切的被搬到了我们面前,变成了我们可能需要立刻面对的元素。
>/ 眼见为真?耳听为实?前几天,有人在网上发布了一组图片,记录了 2001 年发生在美国西部小镇卡斯卡迪亚上的了一场 9.1 级的地震之后的景象。
略带模糊的镜头记录下了当时哭喊的民众
被摧毁的建筑和房屋
甚至还有当时的美国总统小布什访问灾区的合影。
无论是破损的城市,街道上大家的穿着,都在告诉观众这是一组来自 2001 年的照片。
不那么清晰的画质反而给大家一种“路人随手拍”的感觉,让照片的真实性再上了一个台阶。
但唯一的问题是,根本没有这场大地震,卡斯卡迪亚上一次有记录的灾难,是在 1700年。
没错,这组照片就是用 Midjounrney 来生成的。
比起前段时间流行的“赛博 COS”,明暗对比更强烈,更擅长描述场景关系的 Midjourney 用来制作“虚假历史”明显更加得心应手了。
也更容易骗到大家的眼睛。
前几天流行的“川普被捕”或者是“教皇穿羽绒服”,都是出于 Midjourney 的手笔。
图片来源@谷大白话
说实话,差评君看到这个照片的第一瞬间,还真觉得有点懵,毕竟做为解放神学出身的教皇,方济各穿个羽绒服也很正常对吧。
但是,这些图片用来图一乐倒是还好,一旦用来深究,那事情可能就大条了。
万一下回,这项技术被用来诈骗呢?
和前些年流行过的 DeepFake 换脸不同,如今的 AI 作图不需要特别好的显卡,更不需要很长的时间去调试,对 Midjourney 来说,只要坐在浏览器前敲敲键盘就行。
当 AI 让图像造假的成本足够低廉之后,咱又要花多少时间去分辨一张图是不是 AI 画的?
比如川普返乡
可能生成一张假的图片需要 10秒,但咱们想要看出来是这张图是不是 AI 画的,可能少说得要花个半分钟。。。
不是每个人都有那么多精力能分辨 AI 的,只要有 1%的人认不出来上当受骗,就可以说是一本万利的生意了好吧。
以往我们说耳听为虚,眼见为实,然而现在,眼见也不再为真。
过去几十年来人类习以为常的秘密,已经悄悄被 AI 解构成了一堆的线性矩阵。
在排列组合中,瞒天过海了人类。
而图片生成还只是 AIGC (人工智能技术来生成内容)中的一部分。
这次被大佬们试图联名叫停的“巨型 AI”更是重量级,对标的产品自然是出尽风头的 ChatGPT 。
这玩意有多离谱,咱们也写文章聊过很多,今天就不再做赘述。
前段时间还生成了一段杭州取消限行的文案,骗过了不少人。
实际上,这类大语言模型并不是没有监管,从它们出生的那刻开始,监管就如影随形了。
上个月 OpenAI 在发布 GPT-4 的时候就提到,他们早在 22 年 8 月就完成了 GPT-4 的开发。
但是之后花了六个月来搞安全问题,为的就是不让AI“乱说话”。
GPT-4 经过拷打之后胡言乱语的水平大幅度下降:
但问题是,现在的 AI 和过去那些一步步执行编译的程序不一样,这 AI 有一个算一个,全是黑箱。
不像过去那些程序,要是出了问题,程序员还可以进去打断点,一个环节一个环节的调试 Bug 来把问题给搞清楚,哪一个环节有问题,针对性的改一下就好了。
但现在以 Chatgpt 为首的大模型 AI 就好像一个黑色的纸箱子,你只知道给它喂苹果,它能还你一个橘子,而中间发生了什么事情一概不知。
那万一这箱子要是出了问题,那咋办嘛?只能重新买一个黑箱子了。
ChatGPT 就像一盒巧克力,在它输出完成之前,没有人知道它嘴巴里会蹦出什么字来。
李彦宏也提到:“生成式 AI 每次给出的答案不一定一样,会带来不确定性”。
这个生成到底有多不靠谱呢?差评君讲个刚刚遇到的事儿:
前几天不是索尼微软任天堂、育碧和 D 社都说要退出 E3 展会么,我就有点好奇 E3 展会租金到底要多少钱?
先是在知乎上找到了一个回答,答主表示自己查到在 06 年时 E3 的租金就要 500万美元以上。
额。。。06 年,500万?这个数据好像有一些不靠谱,于是我又去用 NewBing 问了一下:
也给出了类似的回答。
有数据有链接,看起来是有理有据。
但问题是当我点开这个链接的时候发现。。。IGN 的文章里面根本没有提到租金 500 万这个数字
合着你是直接把之前的知乎文章翻译了一遍,然后又给我编了一篇英文文章来讹我啊。。。
它顺应了我们的猜测给了一个谣言,要不是我多心看了一眼,可能真的给他糊弄过去了。
真就是睁眼说瞎话大师。
而除了这个 title 以外, AI 还是桀骜不羁的漏洞寻找大师,往往能在我们训练它的过程中表演一手出乎意料。
在人工智能领域,有个非常经典的理论叫做“对齐问题”。
意思是AI在做的事情和我们想要的结果之间没有对齐,命令的传递出现了偏差。
就比如前两年那只宁愿一头撞死的赛博狼。
发现抓半天羊还会不断扣分,那还不如一头撞死自己分还比较高。
狼抓羊这么简单的程序都会出现没法对齐的问题,那更大模型的人工智能就更难说了。
实际上,缺乏“对齐”的 AI,还可能会形成社会中一些错误印象的“放大器”。
就拿性别歧视举个例子,早些年亚马逊引入了一个人工智能,来给求职者的简历打分。
结果过了几年回头一看,在程序制定者啥也没做的情况下,性别歧视就很顺滑的出现了,男性简历的通过率比女性高了不少。
甚至就算简历上面没有明确写出性别,程序还会通过一些细枝末节的地方来确定:比如是否毕业于女子大学,是否是“女子 XX 社”社团社长。
这自然不是亚马逊在招聘时希望看到的,也绝对不是它们在设计 AI 时给它下的命令。
但是 AI 在训练的结果中很自然的“没有对齐”。
而且不光早些年的人工智能,最新的 ChatGPT 也依旧会有这些问题。
比如宁可让百万人失去生命也不愿意说一句种族歧视的话语。
再比如不愿意写一首诗歌歌颂川普,但是可以赞扬拜登。。。
这些都是很明显的政治倾向,我愿意相信 OpenAI 在研发 ChatGPT 的时候并不希望它学会这些,不然他们也没有必要在 GPT-4 上花那么多时间用于自我审查。
但我们一不留神, AI 可能就偷偷的跑偏。
去学习偏见、歧视这些我们不希望存在,但是又客观隐藏在社会关系里的性别歧视和政治倾向。
差评君也和清华大学交叉信息研究院的于洋教授聊过这个问题,探究到底是 AI 的哪里出了问题。
于教授的回答是:“这既是训练数据集的问题,也是模型架构的问题,也是训练方式的问题,还涉及到使用的问题——比如诱导 AI 犯错的攻击式使用。”
——对,就是全有问题。
现在的 AI 能做的还有限,就算没对齐,捅出了篓子,可能还在我们能控制的范围里。
但如果在这样狂飙下去,那可就说不定了,就像那个知名的“曲别针假说”。
说不定未来哪一天, AI 会认为人类都是阻挠它生产曲别针的阻碍,把大家都给噶了?
人类有和自然相处成百上千年下来的道德约束,我们知道什么能做,什么不能做。
而目前,人工智能学不会这些。
或许,这才是这次数千 AI 大佬发出联名信的原因。
监管必须要有,但是监管、法规不是一日而成。
AI算法突破起来毫无阻碍,连我们这种外行人都知道,AI带来的技术爆发已经箭在弦上。去年啥情况,今年啥情况,称之为突飞猛进不为过。
随着AI算法的日益完善,下一步没准就要自我进化了,它能成长到什么地步我们很难说。
我们有可能只能跟着 AI 在屁股后面追,但是现在不知道还有没有我们一直在后面追的空间。
也许下一步只能用 AI 来监管 AI。
今天的联名信或许是给人类敲响了一记警钟。
但可惜的是,在差评君看来,这样一纸的 “ 联名信 ” 绝对停不下 AI 领域研发的脚步。
撰文:小陈编辑:江江 & 面线 & 结界封面:萱萱
图片、资料来源:
https://openai.com/research/gpt-4
Red Teaming Improved GPT-4. Violet Teaming Goes Even Further
ChatGPT Is a Blurry JPEG of the Web —— Ted Chiang
本文来自微信公众号“差评”(ID:chaping321),作者:差评君,36氪经授权发布。