AI哨所 |马斯克说暂停AI开发才能更安全?根本不需要 世界时快讯

业界 | 2023-04-18 11:48:01
时间:2023-04-18 11:48:01   /   来源: 凤凰网      /   点击数:()

凤凰网科技《AI哨所》北京时间4月17日消息,埃隆·马斯克(Elon Musk)等上千人联名呼吁暂停高级人工智能(AI)模型的开发六个月,以规避AI带来的安全风险。但是在专家看来,根本不用这么做。

图1:AI训练需要人的指导


(相关资料图)

马斯克、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等知名人士警告称,像OpenAI旗下GPT-4这样的大型语言模型的崛起,正在为一个机器人做出所有决定的新时代敞开大门(人类没有终结的话)。

现在,这个话题已经转向了负责任的AI概念上。由于马斯克等领袖呼吁暂时停止开发新的AI模型,那我们就来弄清楚如何确保这些系统在所有情况下都能公平和合乎伦理地行事。

公开的秘密

凤凰网科技《AI哨所》了解到,开发负责任AI的秘密根本不是秘密。这是业内多年前就知道的事情。如果你想完全确定你的AI是否按照你想要的方式行事,你就需要有人参与其中。

“我们需要让人类参与AI训练,甚至提前编码,让机器在遇到道德困境时知道应该如何行动。”哥伦比亚大学商学院教授奥德·内泽尔(Oded Netzer)表示。

通过确保AI从一开始就按照人类想要的行为进行编码,并定期检查以确保它仍然按照预期行事,它的行为会在很大程度上被接受为标准做法。你可以防止这些系统制造虚假信息,歧视某些用户, 或以其他方式表现不佳。

这是好消息。坏消息是,人们现在突然对负责任的AI产生兴趣,恰逢科技公司正在大力裁员之际。微软、谷歌和Meta等大型科技公司为了节省成本,裁减了他们的AI伦理学家。

图2:科技公司正在裁减AI伦理学家

专家们指出,从短期来看,裁员对他们的业务来说可能是正确的举动,但是对于AI技术的未来来说,这些裁员可能发生在最糟糕的时刻。

“你最不想让人们离开的地方就是AI领域,”内泽尔表示,“我预计这可能是短期内的人员低点,他们最终会在这些团队中重新招聘的。”

人类干预是关键

AI伦理学家不会坐在房间里讨论柏拉图,思考作为人类意味着什么。许多负责任的AI都致力于理解AI对人们日常生活的影响。你可以把AI伦理学家想象成房间里负责任的父母。

从根本上说,让AI伦理学家参与开发过程,是为了放慢将新产品推向市场的速度,因为你可以这么做。每家公司的做法都不同,但这些伦理学家通常会检查AI模型的偏见或不准确性,并询问有关该系统的社会或政治影响的问题。例如,如果他们认为AI可能会产生有偏见的结果或伤害一群人,他们可以要求产品团队推迟发布。

对于金融或医疗保健等受到严格监管的行业来说,这尤其重要。在这些行业,如果有人知道如何提出正确(或错误)的问题,未经检查的算法可能会泄露敏感数据。

伦理学家甚至不必是一个在大学里长时间研究哲学的人。通常来说,这些人都是各自领域的专家,从律师(和其他法律专业人士)到与边缘群体打交道的经验丰富的人。

汤森路透法律技术部门首席产品官克里蒂·夏尔马(Kriti Sharma)表示:“我真的相信AI是未来,但现实是,我们的数字生活应该由像我这样的极客独自打造。它需要的是拥有许多不同背景、了解背景和社会的人的组合。”

她补充说,在训练AI时让专家随叫随到,可以为模型提供更好的指导,并为其接收的数据提供背景信息。有了额外的背景信息,它有助于减少偏见并指导结果。

总而言之,创造负责任的AI的方法已经存在,没有必要暂停开发六个月时间,只需让人类参与进去。凤凰网科技《AI哨所》对此将持续关注。(作者/箫雨)

标签:

最近更新