人工智能(AI)危险吗?


2023 年 5 月 22 日星期一,一个名为“Bloomberg Feed”的经过验证的 Twitter 帐户分享了一条推文,声称存在一个 五角大楼爆炸 ,并附有一张图片。如果你想知道这与人工智能 (AI) 有什么关系,这张图片是人工智能生成的,这条推文迅速传播开来,并引发了股市短暂下跌。情况可能会更糟——这清楚地提醒人们人工智能的危险。

人工智能的危险

我们需要担心的不仅仅是假新闻。人工智能存在许多直接或潜在的风险,从隐私和安全到偏见和版权问题。我们将深入探讨人工智能的一些危险,看看现在和未来正在采取哪些措施来减轻这些危险,并询问人工智能的风险是否大于收益。

假新闻

当 Deepfake 首次出现时,人们担心它们可能会被恶意使用。对于新一波的 人工智能图像生成器 来说也是如此,例如 DALL-E 2、Midjourney 或 DreamStudio。 2023 年 3 月 28 日,假AI 生成的教皇方济各图像 穿着白色 Balenciaga 羽绒服,享受滑板和玩扑克等多种冒险活动,走红网络。除非你仔细研究这些图像,否则很难将这些图像与真实的东西区分开来。

虽然教皇的例子无疑有点有趣,但有关五角大楼的图像(以及随附的推文)却一点也不有趣。人工智能生成的虚假图像有能力损害声誉、结束婚姻或职业生涯、制造政治动荡,如果被错误的人使用甚至会引发战争——简而言之,这些人工智能生成的图像如果被滥用,可能会带来巨大的危险。

随着人工智能图像生成器现在可供任何人免费使用,以及Photoshop 添加 AI 图像生成器 其流行的软件,操纵图像和制造假新闻的机会比以往任何时候都更大。

隐私、安全和黑客攻击

谈到人工智能的风险时,隐私和安全也是一个巨大的问题,许多国家已经禁止 OpenAI 的 ChatGPT。意大利出于隐私考虑而禁止了该模型,认为它不符合欧洲通用数据保护条例(GDPR),而中国、朝鲜和俄罗斯政府则因担心它会传播错误信息而禁止了它。.

那么,为什么我们在人工智能方面如此关注隐私呢? 人工智能应用程序 系统会收集大量数据以进行学习和预测。但这些数据是如何存储和处理的呢?确实存在数据泄露、黑客攻击和信息落入坏人之手的风险。

面临风险的不仅仅是我们的个人数据。人工智能黑客攻击是一种真正的风险——这种情况尚未发生,但如果那些怀有恶意的人可能侵入人工智能系统,则可能会造成严重后果。例如,黑客可以控制无人驾驶汽车,侵入人工智能安全系统以进入高度安全的位置,甚至侵入具有人工智能安全功能的武器系统。

美国国防部国防高级研究计划局 (DARPA) 的专家认识到这些风险,并已开始开展 DARPA 的保证人工智能鲁棒性防止欺骗 (GARD) 项目,从头开始解决这个问题。该项目的目标是确保算法和人工智能能够抵御黑客攻击和篡改。

侵犯版权

人工智能的另一个危险是侵犯版权。这听起来可能不像我们提到的其他一些危险那么严重,但像 GPT-4 这样的人工智能模型的发展使每个人都面临更大的侵权风险。

每次您要求 ChatGPT 为您创建一些内容时(无论是关于旅行的博客文章还是您企业的新名称),您都在向其提供信息,然后它会使用这些信息来回答未来的查询。它反馈给你的信息可能会侵犯他人的版权,这就是为什么在发布人工智能创建的任何内容之前使用剽窃检测器并对其进行编辑如此重要的原因。

社会和数据偏见

人工智能不是人类,所以它不会有偏见,对吗?错误的。人和数据被用来训练AI模型和聊天机器人 ,这意味着有偏见的数据或个性会导致有偏见的AI。人工智能中有两种偏见:社会偏见和数据偏见。

日常生活社会中存在许多偏见,当这些偏见成为人工智能的一部分时会发生什么?负责训练模型的程序员可能会有偏差的期望,然后这些期望就会进入人工智能系统。.

或者用于训练和开发人工智能的数据可能不正确、有偏见或恶意收集。这会导致数据偏见,这可能与社会偏见一样危险。例如,如果面部识别系统主要使用白人的面部进行训练,它可能很难识别少数群体的人脸,从而使压迫永久化。

机器人抢走了我们的工作

ChatGPT 和 Google Bard 等聊天机器人的发展引发了围绕人工智能的全新担忧:机器人 可能会抢走我们的工作。我们已经看到科技行业的作家被人工智能取代,软件开发人员担心他们的工作会被机器人抢走,公司使用 ChatGPT 来创建博客内容和社交媒体内容而不是雇用人类作家。

根据世界经济论坛 2020 年就业未来报告 ,到 2025 年,人工智能预计将取代全球 8500 万个工作岗位。即使人工智能没有取代作家,但它已经被许多人用作工具。那些面临被人工智能取代风险的工作人员可能需要适应才能生存——例如,作家可能成为人工智能提示工程师,使他们能够使用 ChatGPT 等工具进行内容创作,而不是被这些模型取代。

未来潜在的人工智能风险

这些都是直接或迫在眉睫的风险,但是我们未来可能看到的一些不太可能但仍然可能发生的人工智能危险又如何呢?其中包括人工智能被编程来伤害人类,例如,经过训练可以在战争期间杀人的自主武器。

然后存在的风险是,人工智能可能会一心一意地专注于其编程目标,在不惜一切代价试图实现该目标时发展出破坏性行为,即使人类试图阻止这种情况发生。

天网告诉我们当人工智能变得有知觉时会发生什么。然而,尽管早在 2022 年 6 月,Google 工程师 Blake Lemoine 就曾试图让所有人相信 LaMDA,谷歌的人工智能聊天机器人生成器,具有感知能力 ,但幸运的是,迄今为止没有证据表明这是真的。

人工智能监管的挑战

202 年 5 月 15 日星期一,OpenAI 首席执行官 Sam Altman 出席首届国会人工智能听证会 ,警告:“如果这项技术出错,它可能会出错。” OpenAI CO 明确表示支持监管,并在听证会上提出了许多自己的想法。问题是人工智能发展速度如此之快,很难知道从哪里开始监管。.

国会希望避免重蹈社交媒体时代之初的覆辙,参议院多数党领袖查克·舒默 (Chuck Schumer) 的专家团队已经在制定法规,要求公司披露他们用于训练的数据源模型以及训练他们的人。不过,人工智能的具体监管方式可能还需要一段时间才能变得清晰,毫无疑问,人工智能公司将会强烈反对。

通用人工智能的威胁

还存在创建可以完成人类(或动物)可以执行的任何任务的通用人工智能(AGI)的风险。科幻电影中经常提到,我们距离这样的创造可能还需要几十年的时间,但如果我们真的创造出通用人工智能,它可能会对人类构成威胁。

许多公众人物已经认可人工智能对人类构成生存威胁的信念,包括史蒂芬·霍金、比尔·盖茨,甚至前谷歌首席执行官埃里克·施密特,他表示:“人工智能可能会带来生存风险,政府需要知道如何应对确保这项技术不被邪恶之人滥用。”

那么,人工智能危险吗?其风险是否大于其收益?对此还没有定论,但我们现在已经看到了我们周围存在一些风险的证据。其他危险即使有的话,也不太可能很快发生。但有一件事是明确的:人工智能的危险不应被低估。最重要的是,我们确保人工智能从一开始就受到适当的监管,以最大程度地减少并有望减轻任何未来的风险。

.

相关文章:


31.05.2023