为什么生成式人工智能不会很快取代人类?

机器学习

2024-03-03 12:09

浏览:11

其结果是人工智能不会很快取代人类自生成式人工智能(GenAI)问世以来人工智能不会很快消灭人类的4个理由但它不会很快取代人类GenAI生成的作品不受版权保护LLM可能很快就无法访问作为数据集的版权内容

编者按:自生成式人工智能(GenAI)问世以来,其产出很快取代人力,人们对它的期望都越来越高,人类生产力的未来变得越来越模糊。我们对GenAI的反应跨越了“希望”和“恐惧”两个极端,无论对其反应如何,GenAI都是在法律、金融和文化现实等影响的大背景下运作的,它的最终用途和价值始终掌握在它的需求方——人类手中。它作为革命性工具,不会很快取代人类。作者在本文列举了4个原因,请大家详细了解下吧!本文来自编译,希望对您有帮助。

生成式人工智能是一种革命性的工具,但它不会很快取代人类。

企业家发言人对此纷纷发表了见解。

自生成式人工智能(或“GenAI”)问世以来,人类生产力的未来变得越来越模糊。像ChatGPT、Midjourney、Bard等这些工具的产出将很快取代人力,人们每天对它们的期望越来越高。

与大多数颠覆性技术一样,我们对GenAI的反应跨越了“希望”和“恐惧”两个极端。从希望方面来讲,GenAI被吹捧为“革命性的创意工具”,风险投资专家马克·安德森(Marc Anderson)认为它们有朝一日会“拯救世界”。从恐惧方面来讲,则有其他人警告说,GenAI将带来独创性、民主甚至文明本身的“终结”。

我们对GenAI的反应不应该仅仅是关于GenAI能做什么。实际上,还要考虑它是在法律、金融和文化现实等因素共同影响的大背景下运作的。

而且,这个更大的图景已经为我们呈现出至少4个很好的理由,其结果是人工智能不会很快取代人类。

人工智能不会很快消灭人类的4个理由:

1. GenAI的输出内容可能不是专有的

美国版权局(The US Copyright Office)最近决定,GenAI生成的作品不受版权保护。

当作品是混合体时,只有由人类创作的部分受到保护。

纵然作品中输入再多提示也是不够的:即使一个人使用Midjourney输入了 624 个提示来创作作品,也会被拒绝注册。这一事实后来在华盛顿州立法院得到了证实。

在为人工智能创造的发明申请专利方面也存在类似的版权保护困难。

市场是受法律约束的游戏。它们需要投资风险、受控分销和营销预算的分配。没有权利,体系就会崩溃。

虽然某些国家可能承认有限的GenAI产出权利,但想要保证GenAI产出在全球范围内的权利还需要很大的努力。

2. GenAI的可靠性仍然时好时坏

在一个信息已经饱和的世界里,可靠性比以往任何时候都更加重要。时至今日,GenAI的可靠性一直非常不稳定。

例如,一位上诉律师最近因使用 ChatGPT 写案卷而上了热搜。事实证明, ChatGPT引用的案例是捏造的,结果使律师受到了处罚。ChatGPT这个奇怪的缺陷已经导致了法律后果:德克萨斯州的一名联邦法官最近要求律师证明他们在文件中没有使用未经检查的人工智能,而对于其他材料,对人工智能的使用必须明确披露。

GenAI的可靠性问题在STEM领域也出现过。斯坦福大学和伯克利大学的研究人员发现,随着时间的推移,GPT-4 生成代码的能力莫名其妙地变得更糟。另一项研究发现,它识别质数的能力从3月份的97.5%下降到三个月后的2.4%,表现令人震惊。

无论这些是暂时的缺陷还是永久性的波动,人类在真正利害关系面前,是否应该盲目地相信人工智能而不让人类专家审查其结果?目前,人类如果真这样做,即使不是鲁莽的,也是轻率的。此外,不管个人是否能够容忍,监管机构和保险公司已经开始要求对人工智能输出进行人工审查。

GenAI可生成“看起来”合法的信息,在这个时代,仅仅具备这个能力并不那么有价值。信息的价值越来越在于其可靠性。为了确保这一点,仍然需要人工审查。

3. LLM 是“数据短视”的

一般来说,可能还有一个限制大型语言模型(LLM)生成信息质量的更深层次的因素:即作为一个物种的生成,它们没有在一些最丰富和最高质量的数据库上进行过训练。

这些生成信息包括由上市公司、私营企业、政府、医院和专业公司创建的信息,以及个人信息——所有这些信息现在是不允许被使用的。

当我们专注于数字世界时,我们可能会忘记有大量信息从未被转录或数字化,例如我们口头通信。

信息拼图中的这些缺失部分不可避免地导致知识空白,对此,我们无法轻易填补上。

如果女演员莎拉·西尔弗曼(Sarah Silverman)和其他人最近提起的版权诉讼成功,LLM可能很快就无法访问作为数据集的版权内容。它们的可用信息范围实际上可能在扩大之前就缩小了。

当然,LLM当前可以使用的数据库将持续扩大,AI推理将变得更好。但这些被禁止访问的数据库也会并行扩大,将这种“信息短视”问题变成一个永久性的特征,而不是一个错误。

4.AI不能决定什么是有价值的

GenAI的终极局限性,也可能是它最明显的局限性:它永远不会是人类。

当我们关注GenAI在供应方面能做什么和不能做什么时,谁真正决定了产出的最终价值?

能真正决定产出最终价值的不是一个客观评估作品复杂性的计算机程序,而是反复无常、情绪化和有偏见的人类。需求方有许多怪癖和细微差别,仍然“太人性化了”。

我们可能永远不会像品味人类艺术那样,将艺术家的生活经历和诠释作为鉴赏基础去品味人工智能艺术。文化和政治转变可能永远无法被算法完全捕捉到,可能总是需要人类基于自身更广泛的背景和了解去感知,并将感受到的现实转化为最终的输入和输出,然后将其运用于人类的文化和政治活动中——毕竟,这才是人类的终极游戏。

GPT-4本身对此有何看法?

GPT-4自述:“我根据训练数据中的模式生成内容。这意味着,虽然我可以以新颖的方式组合和重新利用现有知识,但我无法真正创造或引入全新或前所未有的东西。另一方面,人类创作者经常创作出开创性的作品,重塑整个领域或引入全新的视角。这种独创性往往来自现有知识的界限之外,这是我无法实现的飞跃。我的最终用途仍然由人类决定,作为人工智能工具,只是比人类具有更强的计算能力这一不公平的优势。”

因此,由于人类始终处于需求方地位,这就使得GenAI有了一个优势——对人类现实的直观理解。

需求方总是会限制人工智能产出的价值。GenAI越“聪明”(或人类越“愚蠢”),这个问题就会变得越严重。

这些限制并没有降低GenAI作为革命性工具的上限。它们只是指出了一个未来,即我们人类总是集中参与文化和信息生产的所有关键方面。

释放我们自身潜力的关键可能是更好地理解人工智能可以在哪些方面提供其前所未有的好处,以及我们可以在哪些方面做出独特的人类贡献。

因此,人工智能的未来将是不可预测的。正如《终极算法》(The Master Algorithm)一书的作者、计算机科学家佩德罗·多明戈斯(Pedro Domingos)所写的那样:“数据和直觉就像马和骑手一样,骑手不会试图超越一匹马,因为骑手正在骑马,马无法脱离。数据和直觉也不是机器与人的较量,而是有机器的人和没有机器的人之间的较量。”

译者:甜汤


上一篇: 没有了
没有了:下一篇