在人工智能快速发展的时代,生成式人工智能(GenAI)的出现标志着一个关键的转折点,使我们稳步迈向技术殖民主义。这一重大转变超越了传统的技术进步,深刻地影响了我们的社会和文化景观。
GenAI 是一种基础模型,本质上是一种预先训练的深度学习模型,擅长吸收反映广泛人类知识和行为的大量数据集。这种能力改变了人工智能,使其能够承担以前认为无法完成的任务,例如生成复杂的内容并做出复杂的预测,模仿人类的创造力和洞察力。机器学习、自然语言处理和数据分析的融合为更加直观、响应更快、与人类思维过程紧密结合的人工智能系统铺平了道路。
![人工智能与技术殖民主义的风险](http://www.ouzou.cn/wp-content/themes/justnews/themer/assets/images/lazy.png)
然而,这一进步也面临着挑战。在开发和管理这些模型所需的大量资源的推动下,人工智能行业的权力迅速集中,标志着该行业正在走向寡头垄断。这种集中化带来了巨大的风险,可能会加剧数字鸿沟,并重塑社会规范和文化价值观,以支持少数行业领导者的观点。
在探索 GenAI 和基础模型的影响时,我们面临一个悖论:对公正和公平的人工智能系统的追求可能会无意中导致主导文化价值观的强加。如果不采取刻意行动,这种趋势将不可避免地导致技术殖民主义状态,我们将看到全球文化身份多样性的侵蚀。当我们站在这个关键的十字路口时,我们必须谨慎行事并具有强烈的责任感,确保我们人工智能发展的道路不仅以技术创新为标志,而且以对公平、多样性和包容性的承诺为标志。
寡头垄断及其社会经济影响
人工智能产业迅速集中到寡头垄断是一个具有深远意义的发展。这种转变主要是由 ChatGPT 等基础模型的出现推动的,但它并不是渐进的——它几乎是在一夜之间发生的。少数拥有庞大计算资源和精英人才库的玩家已成为人工智能发展的把关人。这种权力的集中具有深远的影响,超越了科技行业的范围,延伸到了更广泛的社会经济和文化领域。
这种寡头垄断的出现不仅仅是市场动态的问题,它还提出了有关技术及其利益的公平分配的关键问题。人工智能开发集中在少数公司手中,这意味着有限的影响者圈子正在就人工智能技术的方向、道德和应用做出决策。这种情况带来了一个巨大的风险,即创造一个偏向这些主导实体的利益和观点的技术格局,可能会忽视广大全球社会的需求和价值观。
此外,这种情况有可能加剧现有的社会经济差距。获得尖端人工智能技术及其好处可能会越来越局限于那些负担得起或靠近这些主要参与者的人。构建这些模型的团队并不能代表它们所部署的社区,因此当以影响这些社区的方式部署时,会产生不太理想的情况。
一些统计数据强化了这一点,显示男性和亚洲人的比例明显过高。虽然数据科学中没有明确研究白人和亚裔(南部或东部)男性的数据,但我们可以从现有数据推断,这两个种族的代表性明显过高:根据 2020 年人口普查数据,白人和亚裔分别占 64% 和 18.8% 。正如科技其他领域所反映的那样,美国女性数据科学家的比例严重不足:男性为 18%,男性为 82%。
由于这些工具是从西方、印度和中国的白人和亚裔男性的角度构建的,这种不平衡正在使我们走上数字鸿沟扩大的道路,先进的人工智能工具及其优势是为特权阶层构建的。少数人,留下了全球人口的很大一部分。
人工智能行业的权力集中也对塑造社会规范和文化价值观产生影响。随着人工智能系统越来越融入日常生活,从企业的决策过程到家庭的个人助理,开发人员嵌入这些系统的价值观开始影响更广泛的社会规范。这种影响可能是微妙但普遍的,有可能导致文化和社会价值观的同质化,而这些价值观与人工智能行业的主导者一致。
人工智能领域的寡头垄断引发了人们对这些技术对不同全球需求的响应能力的质疑。当少数实体掌控技术进步时,推动进步的各种观点和创新方法可能会受到抑制。风险不仅在于垄断市场,还在于垄断心态,即替代方法和解决方案被忽视或资金不足。
基础模型范式
一般来说,GenAI 和基础模型的核心是预先训练的深度学习模型。由于它们是在巨大的数据集上进行预先训练的,因此它们在捕获大量人类知识和行为的能力方面是独一无二的。这种广泛的培训使他们能够执行难以想象的任务,例如生成复杂的内容、做出复杂的预测以及展现与人类聪明才智相媲美的创造力。
![人工智能与技术殖民主义的风险](http://www.ouzou.cn/wp-content/themes/justnews/themer/assets/images/lazy.png)
由于其广泛的适用性和适应性,这些模型具有实现人工智能民主化的潜力,使更广泛的用户和开发人员可以使用先进的人工智能工具——它们用途广泛、功能强大且具有变革性。然而,这种民主化也有一个警告。
这些模型的开发和控制需要大量的计算资源和专业人才,而这些资源都集中在少数主导者手中。这种权力的集中提出了关于人工智能发展的未来及其对社会影响的关键问题。
训练这些模型时对庞大且多样化的数据集的依赖引入了另一层复杂性——数据。复杂性始于数据来源,包括数据的来源方式和来源。当前的基础模型以生成人工智能模型的形式,通过抓取互联网来获取数据,严重偏向北美、欧洲或中国的互联网部分。此外,这些数据的来源在很大程度上没有考虑数据所有权、法律和监管要求。
一旦获取了数据,第二个大问题就出现在数据表示方面。它严重偏向西方和中国世界。他们分别主要专注于英语和中文。考虑到互联网上的数据状况,在西方模型中,更多白种人的数据所占比例过高,而黑人和棕色人种社区的数据所占比例严重不足。
除此之外还有数据(人类的永久记录)——好的、坏的和丑陋的。由于 Reddit 是训练数据的主要来源之一(在它开始对其信息访问收费之前),我们看到了一些好的、坏的和丑陋的数据被训练到这些模型中。
良好意愿、偏见控制和文化强加
基础模型的风景是用善意的画笔描绘出来的。它们的开发和部署背后的主要目标值得称赞——增强人类理解、优化流程以及在不同用户群体中实现人工智能访问的民主化。然而,在这一崇高的努力中,出现了一个悖论,深入探讨了偏见控制和文化强加的复杂相互作用。
从表面上看,控制这些系统中的偏差的任务似乎很简单。目标是创建公平、公正、公正的人工智能模型。然而,这项任务的执行需要更加复杂。基础模型的重要构建者集中在西方、中国和阿联酋。 – 值得注意的是,大多数在阿联酋构建模型的人才分别来自西方和中国。欧盟正在推动主要的全球监管——上周刚刚获得其成员国的批准。为了“做正确的事”,这些监管机构正在努力控制基础模型中的偏差,模型的构建者也是如此。
注:“技术殖民主义(名词):少数实体(通常是大公司或特定地理区域)在控制和塑造先进技术系统的开发、部署和规范方面的主导地位。这种主导地位导致这些实体的文化价值观、偏见和社会规范在全球范围内强加,往往导致不同文化身份的边缘化,加剧社会经济差距以及全球文化的潜在同质化。这种现象引发了人们对技术开发和应用的公平性、多样性和包容性的伦理担忧。”
发布者:ai发烧友,转转请注明出处:http://www.ouzou.cn/ai-news/4288.html