站长之家(ChinaZ.com) 12 月 22 日消息:2023 年对于人工智能(AI)来说,是一个独特而动荡的一年。它见证了无数产品发布、企业内部权力更迭、关于 AI 灾难的激烈政策辩论,以及寻找下一个重大创新的竞赛。然而,我们也看到了具体的工具和政策出台,旨在使 AI 行业更加负责任,并对权力强大的参与者进行问责。这一切对 AI 未来的发展带来了巨大的希望。
以下是 2023 年人工智能带来的主要启示:
1、生成式 AI 的发展方向仍不明确
本年度伊始,大型科技公司纷纷投入生成式 AI 的研发。OpenAI 的 ChatGPT 取得了巨大成功,促使每个主要的科技公司发布自己的版本。尽管出现了多种 AI 模型,如 Meta 的 LLaMA 2,谷歌的 Bard 聊天机器人和 Gemini、百度的文心一言 (Ernie Bot)、OpenAI 的 GPT-4 等,但我们尚未见证任何 AI 应用一夜成名。微软和谷歌推出的 AI 驱动搜索功能并未如预期那样成为杀手级应用。
2、对语言模型的理解加深,但仍有许多未知
尽管技术公司正在快速推出大型语言模型产品,但我们对它们的工作原理仍然知之甚少。这些模型常常捏造信息,并存在严重的性别和种族偏见。今年的研究也发现,不同的语言模型会产生不同的政治偏见,它们可被用于黑客攻击人们的私人信息。
3、AI 末日论成为主流讨论话题
关于 AI 可能对人类构成存在风险的讨论在今年变得普遍。从深度学习先驱杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio),到顶尖 AI 公司的 CEO,如萨姆·奥尔特曼(Sam Altman)和德米斯·哈萨比斯(Demis Hassabis),以及加州国会议员泰德·刘(Ted Lieu)和爱沙尼亚前总统克尔斯蒂·卡柳莱德(Kersti Kaljulaid)等众多科学家、商界领袖和政策制定者都参与了讨论。
4、AI「狂野西部时代」的结束
多亏了 ChatGPT,今年从美国参议院到七国集团都在讨论 AI 政策和监管问题。欧洲立法者在今年年初达成 AI 法案的共识,将引入约束性规则和标准,更负责任地开发风险较高的 AI,同时禁止某些「不可接受」的 AI 应用。
其中一项备受关注的具体政策建议是水印——文本和图像中可被计算机检测到的隐形信号,以标记人工智能生成的内容。水印可用于追踪剽窃行为或帮助打击虚假信息,今年我们看到有研究成功地将水印应用于人工智能生成的文本和图像。
忙碌的不仅仅是立法者,还有律师。艺术家和作家们认为,人工智能公司未经他们的同意,擅自使用了他们的知识产权,并且没有给予任何补偿,因此我们看到了数量创纪录的诉讼。
在一次令人兴奋的反击中,芝加哥大学的研究人员开发了一种新的数据投毒工具「Nightshade」,它可以让艺术家通过扰乱训练数据的方式来反击生成式人工智能,从而对图像生成人工智能模型造成严重破坏。这场反抗正在酝酿之中,期待明年会有更多的草根力量来改变科技的力量平衡。
随着 2023 年的结束,我们对 AI 的未来充满期待。尽管存在许多挑战,但在这一年里,我们对 AI 有了更深的理解,也对如何更好地利用这项技术有了更多的思考。接下来的一年对于确定生成式 AI 的真正价值至关重要。