- A+
谷歌最近的Gemini AI引擎事件引发了公众关注。该引擎生成多元化的纳粹图片,引发了困扰。CEO桑达尔·皮查伊向员工发出警告,表示错误不可容忍。尽管谷歌正在努力解决问题,但这次事件突显了人工智能的挑战。
谷歌在最近一周半遭遇了一场灾难。上周,其最近改名的Gemini AI引擎突然开始生成多元化的纳粹图片,这一举动引发了网络上的困惑和不满,因为这种做法不仅缺乏审美品位,还历史事实不准确。
据报道,谷歌高级副总裁普拉巴卡尔·拉加万在上周五的一篇博文中承认了这一失误,他表示:“我们对Gemini进行了调整,以展示各种人群,但我们没有考虑到明显不应该展示各种人群的情况。”
这一事件迅速引起了主流媒体的广泛关注,并被渲染成了一场公关危机。作为回应,谷歌禁止了系统生成任何人物的图像。
然而,更为尴尬的是,接下来还出现了更多令人尴尬的揭示,比如其聊天机器人拒绝回答种族灭绝独裁者阿道夫·希特勒是否比特斯拉CEO埃隆·马斯克更糟糕的问题。
谷歌CEO桑达尔·皮查伊对此感到非常愤怒,他在周二通过邮件向员工发出了警告。
“我知道有些回答已经冒犯了我们的用户并显露出偏见,明确地说,这是完全不能容忍的,我们错了。”他写道,并强调谷歌的“使全球信息有组织并普遍可访问和有用的使命是不可侵犯的。”
这对于谷歌这样的科技巨头来说是一个特别危险的处境,因为谷歌在新兴的人工智能竞争中一直处于下风,难以跟上像OpenAI等激烈竞争对手的步伐。
为了安抚员工,皮查伊向他们保证Gemini还没有完全失去理智。“我们的团队一直在全力以赴地解决这些问题。”他写道。“我们已经在各种提示上看到了实质性的改善。”
然而,他对这一奇怪事件的解释却显得模糊而不尽人意。“没有人工智能是完美的,尤其是在这个行业发展初期,但我们知道我们的标准很高,我们会继续努力,直到解决问题,并确保规模化。”皮查伊辩解道。“我们会审查发生了什么,并确保我们在规模上解决问题。”
总的来说,这一事件给强大的科技公司敲响了一记警钟:虽然制造出一个能生成文本或图像的人工智能相对容易,但测试其是否存在所有用户可能遇到的问题却非常困难。正如谷歌似乎正在实时学习的,当人工智能公开出现问题时,会尴尬至极。
- 我的微信
- 这是我的微信扫一扫
- 我的电报
- 这是我的电报扫一扫