人工智能AI)技术在经历几年的高速发展后,终于在2024年开始取得井喷式爆发的成果应用。无论是今年年初文生视频大模型Sora带来的巨大冲击,还是全球多地自动驾驶汽车的普及、AI机器人开始在各行各业投入使用,或者是今年年底“美众议院提交1547页预算被AI精简到116页”的牛刀小试,都展现出AI技术正在深入我们的日常生活。但与此同时,AI发展可能带来的一系列问题,从加深全球范围的技术鸿沟、挑战传统社会的伦理价值观、泄露个人隐私和构成新的网络安全,以及AI对于能源的巨大消耗、全球可用训练数据的“紧缺”等,也日益引起各国的高度关注,成为AI未来进一步发展面临的挑战。

2024,AI开始改变世界

图片说明3:全球南北方媒体对AI态度不一

2024,AI开始改变世界

图片说明2:2024年诺贝尔物理学奖被授予两名AI领域专家,表彰他们在人工神经网络机器学习领域的基础性发现和发明。(视觉中国

2024,AI开始改变世界

图片说明1:文生视频大模型Sora生成的猛犸象视频截屏。(图源:OpenAI公司)ai应用落地元年,介入生活方方面面2024年被称为是AI应用落地的元年,各种AI应用开始深入到我们日常生活的方方面面。例如12月12日美国著名AI企业OpenAI公司旗下的ChatGPT聊天助手突然断网数小时,竟引发大范围混乱,许多依赖OpenAI API开展项目的公司也受到影响,“ChatGPT崩了”直接冲上微博热,足以证明AI对于现代生活的介入有多广泛。北京邮电大学人机交互与认知工程实验室主任刘伟接受《环球时报》记者采访时表示,2024年之所以被认为是AI应用落地的元年,大都源于这一年AI技术在多个领域取得了显著的进展,许多创新型应用开始向实际场景扩展并产生影响。其中一些在2024年表现突出的AI应用,不仅展示了技术的成熟,也代表了行业发展的重要趋势。首先值得一提的是生成式AI的广泛应用。

例如2024年2月,OpenAI公司发布的文生视频大模型Sora通过对内容对齐的文本句子和图像/视频数据之间关联关系学习,具备模拟和重建物理世界视频所刻画复杂现象的能力,将人工智能内容生成从文本内容生成跃升到多模态内容生成,被喻为“视频世界模拟器”。Sora带来的巨大冲击,使它被中国工程院列为“2024全球十大工程成就”之一。同时生成式AI在文本、图像、音频和视频等内容创作方面继续取得突破。AI写作工具不仅可以生成新闻报道,还能创作小说、诗歌等复杂的文学作品;ai图像生成工具如DALL·E能够根据简短的文字描述生成复杂的图像,广泛应用于设计、广告、娱乐等行业,提升了品牌和客户之间的互动质量,ai助手也在客户支持领域变得更加智能,能够处理复杂的查询和任务,未来可能在创意产业、教育、科研等多个领域大规模应用,推动知识生产和娱乐内容创作的效率提升。第二是自动驾驶与智能交通的广泛落地。2024年,自动驾驶技术在城市公共交通、长途货运以及消费者汽车等领域迎来了新的发展里程碑。各大自动驾驶公司(如Waymo、百度Apollo、特斯拉等)已在多个城市开展自动驾驶出租车服务,且技术的成熟度不断提高。自动驾驶的感知、决策、规划能力得到了进一步优化,尤其是在复杂城市环境中的表现更为突出。AI被广泛应用于城市交通管理,自动化调度、交通流量优化、事故预警等系统的部署,使得交通更加智能和高效。AI算法还能够对交通事故和拥堵进行快速预测与响应。自动驾驶和智能交通代表了AI与物联网(IoT)结合的趋势,推动了智慧城市的建设。随着技术的成熟,自动驾驶和智慧交通将成为解决城市交通拥堵和能源消耗等问题的关键手段。第三是医疗AI的加速普及,特别是在诊断支持和个性化治疗方面的进展。AI被用于图像识别,帮助医生更快速地诊断疾病,尤其是在肿瘤检测、眼科、皮肤病等方面的表现显著。AI诊断系统的准确性不断提高,有助于提升医疗效率和诊疗质量。

另外,AI在药物研发、基因组学分析以及个性化治疗方案的制定中发挥了重要作用,AI模型可以通过对大量医学文献、临床数据以及基因信息的分析,发现潜在的新药物靶点或预见疾病发展的模式。第四是工业AI与制造业智能化。2024年,AI技术在工业自动化和智能制造领域的应用取得了显著进展。AI通过实时监控和数据分析,能够预测设备故障并提前进行维护,减少了停机时间和维护成本。在制造业中,AI被应用于生产过程的优化,能够自动调整生产参数,提升生产效率和产品质量,AI还与机器人物联网技术结合,形成了高度自动化的生产系统。工业AI的普及代表了制造业智能化转型的趋势,企业通过AI的引入,可以实现更高效、更灵活的生产流程,同时提高产品质量和降低生产成本。

第五是语言理解与跨语言AI技术不断取得突破,尤其是在自然语言处理和跨语言翻译方面。AI在实时翻译和语言理解上的能力有了大幅提升,尤其是在多语言支持的场景下,帮助不同语言和文化背景的用户之间消除了沟通障碍。AI的情感分析能力进一步增强,能够精准识别用户的情绪状态,为客户提供更具人性化的服务体验。自然语言处理的进展代表了跨语言沟通与全球化的趋势,将极大促进全球信息交流与合作。总而言之,2024年,AI技术的快速落地不仅展示了其强大潜力,也表明AI将在未来几年深刻影响各行各业。拥抱AI时代,全球南北方态度有差异《环球时报》记者注意到,尽管AI在全球范围内掀起热潮,但受限于工业化能力、数字化能力、人工智能技术等稀缺能力的分布不均,导致了国家间、地区间的能力鸿沟,且鸿沟有持续扩大的趋势。环球时报研究院2024年发布的《中国AI经验在全球南方的应用机遇》研究报告显示,发展AI的数字鸿沟首先体现在全球数字资源分布不均上。当前,如OpenAI等主流平台主要基于英语数据资源构建。

对于包括中国在内的全球南方国家而言,数字资源特别是语料数据的开发利用与保护程度,相较于英语类数据资源,在数据规模和质量上仍存在明显差距。其次,算力与算法差异也构成显著挑战。全球数字资源分布不均,形成数据能力差距。数字鸿沟不仅体现于技术可获得性,还包括数据使用能力、效率及最终收获效果的不均。长期以来,全球南方国家享受到的数字发展红利有限,一定程度上被排斥在发达国家及科技巨头构筑的信息壁垒之外。这导致南北差距的进一步扩大,并加剧了发展中国家在全球数字秩序中的边缘化地位。非洲地区的54个国家中近半数缺乏本土数据中心,其数据被迫存储于国外,核心数据资源受控于他国领土内。算力与技术落后又会进一步加剧数据偏差与算法偏差,最终影响到应用层面的准确性和完整性,甚至可能产生歧视性结果或无法有效回应宗教文化语言差别较大地区的应用需求。再次,能源成本及供应稳定性问题,在一定程度上限制了全球南方国家本土人工智能的发展能效。人工智能发展对资源与能源的需求呈现出指数级增长态势,对电力供应成本与稳定性也有极高的要求。在电力成本高昂或供电不稳的国家,AI产业的部署与扩展面临显著挑战。同时,全球南方国家正处于能源转型的关键时期,其从传统煤电向新能源的转变进程尚存在不确定性。转型速度若未能与AI产业发展的能源需求相匹配,将导致算力提升遭遇能源供应瓶颈,拉大这些国家或地区数字鸿沟。

此外,大模型具备的问答功能,虽然促进了全球知识与文化的交流融合,但不同国家和地区的民众向大模型提问时,回答的数据来源都掌握在同样的机构手里,其结果有很大可能消弭了文化的多元性,以及一些国家和社会独特的社情民意与价值体系。这种数字鸿沟也体现在全球南北方媒体对于AI报道的态度差异。环球时报研究院从全球北方和全球南方各选取50家媒体,对这些媒体2024年(截至12月17日)提到人工智能的英文报道进行系统化分析(如图)。从报道内容来看,“安全”成为上述媒体共同关注的议题,近两成报道提到相关词汇。“创新”的提及率也接近两成,但相关词汇明显更受来自全球南方的媒体关注,从提到该词的报道比例来看,“南北分歧”达到19.9个百分点。此外,全球南方媒体更关注“合作”,14.3%的报道提到该关键词,比全球北方媒体高8.6个百分点。全球北方的媒体更关注AI带来的风险和挑战,“错误信息”“仇恨”“深度伪造”等关键词出现频率比全球南方偏高。

以美国《纽约时报》为例,该媒体提到“仇恨”和“错误信息”的报道均超过5%,对“道德”和“种族歧视”的关注度也高于平均水平。《卫报》和《泰晤士报》两家英国媒体对“仇恨”的关注度较高,其中,《卫报》提及该词的报道比例达到7.8%,较平均水平高5.3个百分点。全球南方对AI前沿科技领域的发展普遍展现出较乐观的态度。环球时报研究院在亚非拉等地区开展的民意调查显示,68.4%的受访者相信全球南方在推动AI等科技创新方面有潜力或潜力巨大。这种乐观情绪在肯尼亚尤为显著,81.7%的受访者对此表示认同。印度、南非、埃及、马来西亚等国的认同率也超过70%,显示出全球南方民众对于科技突破的广泛期待和信心。面临“黑箱”决策挑战尽管外界普遍看好AI的下一步发展,但它同时也面临诸多挑战。清华大学新闻学院、人工智能学院教授沈阳接受《环球时报》记者采访时表示,AI大模型的“幻觉”与可信度问题成为其大规模应用的主要障碍之一。

这种“幻觉”问题源自于多方面因素:基于大规模文本数据的概率预测方法,使得模型缺乏真正的语义理解与常识推理,一旦知识盲区出现,就可能凭经验“自由发挥”;大部分大模型在生成时未必对信息进行严格校验,容易导致前后矛盾、错误引用或逻辑混乱;大模型常被设计为提供多样化、创新性回答,但在未建立约束机制的情况下,这种“创造性”会带来失真与虚假内容。刘伟也表示,尽管今年诺贝尔物理学奖和化学奖都与AI领域有关,凸显AI对于科技研发的重要性,但应用层面的实际问题依然不可忽视,尤其是在那些对精度要求极高、决策需要完全可靠和透明的场景中。“幻觉”问题在很多情况下影响了AI的可靠性,特别是在医疗、法律、金融、科学研究等领域,这些领域都要求数据的高度准确性和可靠性。

沈阳认为,想要解决“幻觉”问题,有不同的思路,包括外部检索与事实核对(在生成前后,与权威数据库或知识库进行匹配与验证);多模态融合(借助图像、语音、视频等多模态信息进行交叉验证,提高回答可靠性);模型可解释性(在生成过程中或结果输出后,为用户提供来源及推理依据,帮助甄别“幻觉”)。其次,AI发展还面临数据偏见与伦理问题。沈阳介绍说,不平衡或偏颇的数据源,可能导致模型在性别、种族、地域等方面的偏见,而一旦模型学到带偏见的特征,在大规模应用中会进一步放大这些问题,带来社会不公;而大规模数据收集、标注和训练都可能涉及个人隐私和数据滥用。刘伟也表示,AI系统的高效性依赖于大量数据的收集与分析。然而,这带来了关于数据隐私和安全的严重担忧。

AI系统需要获取和处理大量用户数据,特别是在医疗、金融、社交等领域。如果这些数据遭到未经授权的访问或滥用,可能导致严重的隐私泄露和经济损失。同时,AI的“黑箱”性质使得其决策过程常常难以被人类理解和追溯。这对那些需要高度透明和解释性的领域(如法律、医学、公共安全等)构成了挑战。医生需要了解AI给出的诊断建议背后的原因,以便做出最终判断。

如果AI模型不透明,医生和患者将无法信任其输出,从而限制了AI的应用范围。法律要求判决必须具有透明性和可追溯性,如果AI在司法决策中起到了辅助作用,但无法清楚地解释其推理过程,这将导致无法追究决策的责任,也可能带来不公正的结果。此外,沈阳介绍说,当前AI的进一步发展,还面临高昂的训练与推理成本问题。因为模型参数规模越大,算力、带宽、存储等成本指数级攀升,资源门槛显著提高。对于初创企业、科研机构而言,动辄数百万美元的硬件投入形成了技术壁垒,可能加剧行业集中化。

而大规模算力供给与训练过程导致的能源消耗及碳排放问题也日益严重,特别是训练大模型要消耗海量的电能,美国科技巨头甚至为此计划修建新的发电站,号称“硅谷钢铁侠”的美国亿万富豪马斯克由此宣称“AI的尽头是电!”2024年AI领域出现的新挑战还有大模型对海量高质量文本“饥渴”严重,但互联网优质文本资源有限,重复和噪声数据大量存在。新的增量优质数据获取难度与成本越来越高,形成数据瓶颈。总之,虽然AI已经在许多领域取得了显著进展,仍有进一步深化的空间。特别是在那些对高精度、低容错、高透明度的工作中,AI的现有技术路线还无法完全胜任。它在数据丰富、规则清晰、风险较低的场景(如图像识别、语音识别、推荐系统等)有着显著的优势,但在需要高度准确性、伦理考量和透明性的场景中,AI的应用仍需要更多改进。