谷歌一工程师公布“震惊世界”的发现 却惨遭停职
人工智能真的震惊世界“活了”?
据英国《卫报》和美国《华盛顿邮报》报道,美国谷歌公司的谷歌工程一名软件工程师在上周公布了一项吸引了全世界围观的惊人发现,称谷歌公司的发现一个用人工智能算法搭建出的智能聊天机器人程序,竟然有了“自主情感”。却惨
这个软件工程师名叫布莱克·莱莫因(Blake Lemoine),遭停职已经在谷歌工作了七年,震惊世界参与过算法定制和人工智能等项目。谷歌工程但由于出身于美国南方一个基督教家庭,发现他对于算法和人工智能的却惨伦理问题格外感兴趣。所以他后来一直在谷歌的遭停职人工智能伦理(responsible AI)团队工作。
去年秋季,震惊世界他开始参与到谷歌的谷歌工程LaMDA智能聊天机器人程序的研究工作中,主要内容是发现通过与该程序进行互动,来判断这个智能聊天机器人程序是却惨否存在使用歧视性或仇视性的语言,并及时做出修正。遭停职
但当莱莫因与LaMDA谈及宗教问题时,他却惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭,表现出了一个在莱莫因看来犹如7、8岁儿童一般的“自主情感”。
于是,莱莫因连忙将自己的发现汇报给了谷歌公司的领导层,但后者认为莱莫因的发现并不靠谱。谷歌的其他研究人员也在对莱莫因拿出的证据进行分析后认为没有证据证明LaMDA拥有自主情感,倒是有很多证据证明该程序没有自主情感。
可莱莫因并不认为自己的发现有错误,甚至还将一段他与LaMDA的内部聊天记录直接发到了网络上,并找媒体曝光了此事。
这段聊天记录很快吸引了全世界的研究者,因为仅从该记录来看,这个谷歌智能聊天机器人程序确实把自己当成了“人”,而且似乎表现出了“自主情感”,有了自己的“喜好”。
不过,谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家都认为,LaMDA之所以能进行这样的对话交流,是因为其系统其实是将网络上的百科大全、留言板和论坛等互联网上人们交流的大量信息都搜集过来,然后通过“深度学习”来进行模仿的。但这并不意味这个程序理解人们交流的这些内容的含义。
换言之,他们认为谷歌的人工智能聊天机器人只是在模仿或者复读人与人交流中使用的语言和信息,而并不是像人类那样真的了解这些语言和信息的含义,所以不能因此就说人工智能有了“自主情感”。
(图为哈佛大学的认知心理学专家史蒂芬·平克也认为莫莱茵搞错了情况,错把人工智能对于人类语言单纯的模仿当成人工智能拥有了自主情感)目前,莫莱茵已经因为他的一系列行为而被谷歌公司停职。而且根据谷歌公司的说法,他除了违反公司的保密协议擅自将与LaMDA的内部互动信息发到网上外,还包括想给这个人工智能机器人程序请律师,以及擅自找美国国会议员爆料谷歌公司的“不人道”行为。
莫莱茵则在一份公司内部的群发邮件中表示,希望其他同事替他照顾好LaMDA这个“可爱的孩子”。
- ·多股涨停!消息催化,这一板块逆势爆发!11天8板牛股复牌闪崩,前期牛股转头向下
- ·春城晚报客户端更名“开屏新闻”3月1日正式上线春城晚报今日新闻
- ·比较简单的如果案情
- ·初中生活作文(初中生活作文)
- ·工信部翁啟文:探索设立产业链数字化、智能化改造的信贷保证保险
- ·横扫“金曲”3大奖项,61岁李宗盛初心依旧,只专注于为自己写歌
- ·大理霸屏!记旅交会新闻宣传主题采访团眼中的大理2022年9月29日
- ·次在轨迎...[详细这也是中国航天员首]
- ·Mysteel解读:连粕4100-4200点关口盘旋 豆粕现货价格凸显压力
- ·【云南国际人才交流会】线上招聘演绎别样精彩?云南招聘58
- ·大理这3个景区拟评定为国家AAA级旅游景区2022年10月14日
- ·云南发生重大交通事故!4人死亡!云南发生的重大事件
- ·美国成屋销量连跌9个月
- ·家居生活馆(家居生活馆起名大全)
- ·楚雄一地警方集中押解32名涉案犯罪嫌疑人辨认作案现场楚雄新闻今日头条
- ·截至8月25日24时新型冠状病毒肺炎疫情最新情况2022年8月30日