德勤科技趋势报告显示2024年人工智能的前景和危险

综合 2023-12-27 10:19:34
导读 2022年11月ChatGPT的发布引发了围绕生成人工智能(AI)的狂热,导致这一新兴技术到2023年呈指数级增长和发展。12个月过去了,德勤的《2024年...
2023-12-27 10:19:34

2022年11月ChatGPT的发布引发了围绕生成人工智能(AI)的狂热,导致这一新兴技术到2023年呈指数级增长和发展。

12个月过去了,德勤的《2024年科技趋势》报告深入探讨了过去一年发生的事件,帮助企业了解未来12个月内生成式人工智能将如何影响他们。

另外:2023年的人工智能:突破性的一年,人类的一切都没有改变

每年年底,德勤都会发布年度技术趋势报告,帮助企业和IT领导者了解新兴技术可能如何影响其业务,以及如何最好地部署这些工具。毫不奇怪,生成式人工智能是德勤第15次年度报告的主要主题。

在ChatGPT向公众发布的前60天内,OpenAI就获得了1亿用户。相比之下,社交媒体领域的主要领导者TikTok用了九个月的时间才达到这一里程碑。

ChatGPT的使用直观性可能会提高人们的兴趣,让每个人,无论技术水平如何,都可以利用该技术。更重要的是,聊天机器人的用例很明显。

德勤首席未来学家、《自动化电子表格分析》的合著者迈克·贝克特尔(MikeBechtel)表示:“人们在办公桌和键盘上目睹了机械肌肉自动化制造和自动化电子表格分析,突然间,他们发现机械思维开始自动化他们所做的事情。”那个报告。“我认为这就是为什么变形金刚模型的神秘演变已成为一代流行人士兴趣的篝火。”

企业领导者对技术的兴趣与公众的兴趣一致,在德勤2023年夏季的首席执行官调查中,80%的企业领导者同意生成式人工智能将提高其组织的效率。

例如,ChatGPT在大学先修生物学考试中获得了5分(满分5分),Anthropic的Claude2聊天机器人在GRE考试的口头和写作部分得分超过了90%。

这些功能导致许多员工对生成式人工智能取代他们在劳动力中感到恐慌。然而,根据该报告,没有任何迹象表明企业领导者希望实现任何规模的知识工作自动化。

“多年来我们看到的模式之一就是我们经常使用的这句话,‘你不能缩小成功的道路’,”贝克特尔说。

柏克德接着解释说,领导者通常有两个阵营:短期主义者,他们将新兴技术视为速成饮食,一种用更少的人做同样事情的方法;长期主义者,那些想要使用新兴技术让工作变得更好。后一组最为成功。

贝克特尔补充道:“我认为企业家们将把自己与其他人区分开来,因为他们将利用这一点作为火箭燃料来实现更高的野心,而不是获得瘦身的许可。”

其他研究也得出类似的结论。IBM的一项调查显示,企业领导者优先考虑的生成式AI最常见用例包括提高内容质量、推动竞争优势以及扩大员工专业知识而不是减少员工数量。

德勤的调查结果还得出结论,在组织中利用生成式人工智能的真正机会在于利用该技术来优化业务运营,而不是减少员工数量。

德勤在报告中表示:“当组织能够利用生成式人工智能来转变业务功能;降低成本;扰乱产品、服务和创新周期;并创造以​​前无法实现的流程效率时,生成式人工智能的真正价值可能会被释放。”

在上述通过生成式人工智能优化业务运营的每一个用例中,不仅企业整体受益,而且每个员工的工作量也会受益。

例如,如果一家企业利用生成式人工智能模型获取所有数据并将其编译成可搜索的数据库,那么该过程会对组织中的每个人产生积极影响,就像它有利于组织的运营一样。

但是,虽然知识工作者的替代可能不是生成式人工智能的重大负面影响,但企业领导者必须做好准备,涉及使用该技术时存在一些重大风险。

风险以及如何应对

生成式人工智能具有模仿人类对话和推理的能力,这意味着该技术可以被不良行为者用来有效地完成有害任务,例如网络安全攻击,这给企业带来巨大风险。

根据德勤报告,网络钓鱼是最常见的网络攻击,每天发送34亿封垃圾邮件。值得庆幸的是,许多此类攻击都没有成功,因为收件人可以检测到缺陷,包括糟糕的语法和拼写。

聊天机器人等生成式人工智能应用程序可以根据简单的提示命令创建看似合法的恶意内容,从而消除语法错误,并使人们更难区分真假。

除了文本之外,生成式人工智能还可以用于在许多不同的媒体上创建恶意内容,包括语音甚至视频。

Bechtel表示:“我们在《德勤科技趋势》中发现的趋势是,坏人也拥有人工智能,具体来说,他们正在利用人工智能来利用大多数公司堆栈中最脆弱的点,即人类。”

如果工作人员自愿交出密码,所有最先进的保护措施都可能变得毫无用处。

例如,深度造假已被用来通过冒充公司内部业务领导者的声音来攻击企业。正如德勤报告中强调的那样,骗子利用这种技术从一家英国能源公司的首席执行官那里骗取了243,000美元。

免责声明:本文由用户上传,如有侵权请联系删除!