AIGC热潮已经结束了吗?

2023-08-22 09:30:45   来源:新浪VR

  去年,当生成式人工智能产品开始向公众推出时,在全世界掀起了一阵兴奋和恐惧的狂潮。但如今与几个月前相比,人们对AIGC的兴趣正在有眼可见地减弱。

  Big Thing OR party trick?

  AIGC工具仅凭文字提示就能创造图片或文字类内容,这着实让人惊叹。硅谷的科技巨头们也对这一变革性新技术的前景垂涎三尺,在经历了多年的经济停滞以及加密货币和元宇宙的失败之后,他们寄希望于从这项技术中赚一笔大钱。

  但也有人担心,在人工智能改变世界之后,世界会变成什么样子。或许数以百万计的工作岗位会因此消失,或许人们将无法分辨什么是真实存在的,什么是人工智能创造的。如果用更夸张和戏剧化的语言描述它,人类的末日可能就在眼前。这让我们对这项技术的惊人潜力既向往又恐惧。

  几个月后,AIGC的发展遭遇了一系列阻碍。各国政府正在加大力度监管这项技术,创造者们正在起诉涉嫌侵犯知识产权和版权的行为,人们对这些产品所带来的隐私侵犯(包括真实的和感知到的)表示反对,还有很多事故让人们开始质疑AI聊天机器人的准确性,以及人们应该在多大程度上相信它们。

  AIGC发展的前提是,人们依旧还在使用它。但最近有报道称,消费者开始对聊天机器人失去兴趣:基于ChatGPT的NewBing并未对谷歌的市场份额造成任何影响,ChatGPT首次出现用户流失的情况,而且聊天机器人仍然容易出现基本错误,让人无法完全信任。在某些情况下,它们现在可能比以前更不准确。

  这个派对小把戏(意为一种不可靠的方法,策略,或者手段)已经结束了吗?

  生成式人工智能是一项强大的技术,不会在短期内消失,利用这项新技术构建的聊天机器人是消费者最容易使用的工具之一,消费者可以直接访问并亲自试用。但最近的报道显示,随着最初的兴奋和好奇逐渐消退,人们可能并不像许多人预期的那样喜欢聊天机器人。

  AI没有让微软弯道超车

  OpenAI及其ChatGPT聊天机器人迅速成为最热门的AIGC公司和工具,无疑得益于OpenAI是首批向公众发布工具的公司之一,也得益于其与微软建立的价值数十亿美元的合作关系。这种合作关系促使微软在今年二月宣布,将把基于OpenAI大型语言模型(LLM)的定制聊天机器人纳入其搜索引擎必应(Bing)。微软表示人工智能生成式搜索是网络搜索的未来。其特点是在回答用户提问时,会将来自多个网站的信息整合到一个聊天回复中,而不是只显示一堆网页链接。

  随着AIGC快速出圈,在谷歌完全主导的搜索市场上,必应突然从一个笑柄变成了潜在竞争对手,简直成了与谷歌旗鼓相当的同义词。因此,谷歌迅速发布了自己的聊天机器人,名为“巴德”(Bard)。Meta也不甘示弱,而且可能还在为其灾难性的元宇宙战略而耿耿于怀,发布了其大型语言模型的两个开源版本。OpenAI还将ChatGPT授权给了其他公司,数十家公司排着队将其应用到自己的产品中。

  与几个月前的兴奋相比,AIGC的这种重塑可能还有很长的路要走。《华尔街日报》最近的一篇文章称,新版必应并没有得到消费者的青睐,文章引用了两家分析公司的数据,他们认为必应现在的市场份额与1月份人工智能之前的市场份额大致相同。(微软认为分析公司低估了数据,但不愿透露内部数据)。

  根据Statcounter的数据,微软的网页浏览器Edge(消费者必须使用该浏览器才能访问必应聊天工具)的用户数量确实有所增长,但仍然微不足道,而且已经有了衰退迹象,而Chrome浏览器的市场份额在这段时间内有所增长。不过,微软仍有机会。如果必应聊天可以在其他浏览器上更容易访问,那么它很可能会得到更多的用户使用。微软告诉《华尔街日报》,该公司计划尽快实现这一目标。

  与此同时,OpenAI的ChatGPT使用数据似乎也在下滑。据《华盛顿邮报》报道,自去年发布以来,ChatGPT网站的流量在6月份首次下降了近10%。报道称,其iPhone应用程序的下载量也有所下降,但OpenAI不愿对此发表评论。

  谷歌尚未像微软那样将其聊天机器人广泛整合到搜索服务中,而是将其保留在搜索主页之外,并继续将其定位为一种实验性技术,“可能会显示不准确或令人反感的信息”。谷歌没有回应有关Bard使用量的置评请求。

  ChatGPT表现越来越糟

  考虑到某些聊天机器人可能存在的问题,谷歌的做法可能是正确的。我们现在有很多聊天机器人偏离正轨的例子,从与用户发生完全私人化的交流,到把完全不准确的信息当做事实,再到难以遏制的固有偏见,这些似乎渗透到了所有的技术领域。虽然有些公司在一定程度上缓解了其中一些问题,但整体情况似乎是越来越糟,而不是越来越好。

  美国联邦贸易委员会正在调查ChatGPT的不准确回复。最近的一项研究表明,OpenAI的GPT-4(其LLM的最新版本)在短短几个月内就在某些方面出现了明显的准确性下降,这表明,如果不出意外的话,模型正在随着时间的推移而改变或被改变,这可能会导致其输出结果出现巨大差异。新闻媒体试图用人工智能生成的内容来填充版面,结果却出现了多处令人震惊的错误。随着聊天机器人助推的作弊行为层出不穷,OpenAI不得推出自己的工具来检测ChatGPT生成的文本,因为它的表现实在太糟糕了。

  上周,包括OpenAI、谷歌和Meta在内的八家LLM背后的公司,将他们的模型带到了大型黑客大会DEFCON上,让尽可能多的人在首次压力测试中测试他们模型的准确性和安全性,这个过程被称为“红色团队”。拜登政府一直在大肆宣扬安全开发和部署人工智能技术的重要性,并支持和推动了此次活动。拜登的科学顾问、白宫科技办公室主任阿拉提-普拉巴卡尔(AratiPrabhakar)告诉Vox,这是一个“真正搞清楚这些聊天机器人工作得如何的机会,比如弄清让它们脱离正轨到底有多难,或者有多容易。”

  这次黑客大会的目的是为这些公司提供一些急需的数据,让他们了解他们的模型是否会崩溃以及如何崩溃,而这些数据是由一群不同的人提供的,他们可能会用公司内部团队没有用过的方式进行测试。我们将拭目以待他们如何处理这些数据,他们能参加这次活动是个好兆头,当然白宫敦促他们这样做也是重要原因之一。

  与此同时,这些模型和根据这些模型创建的聊天机器人已经被数亿人使用,其中很多人都会相信这些聊天机器人所说的话。尤其是当他们可能不知道这些信息来自聊天机器人时(例如,CNET几乎没有披露哪些文章是由机器人撰写的)。

  然而,各种报告显示,公众对一些人工智能工具的兴趣正在减弱,如果它们想继续存在下去,就必须变得更好。我们甚至不知道这项技术是否真的可以被修复和优化,因为连它们自己的开发人员都声称不知道所有内部运作原理。

  毫无疑问,生成式人工智能可以做出一些惊人的事情。硅谷对它如此兴奋,这么多人愿意尝试它并非无的放矢。但鉴于其仍然普遍存在的缺陷,它目前可能仅仅只是一个“派对小把戏”。

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

微博

HOT RECOMMEND

关于新浪VR | 论坛社区

Copyright © 1996-2015 SINA Corporation, All Rights Reserved 京ICP证000007  京网文【2017】10231-1157号

北京幻世新科网络科技有限公司 版权所有