从失序到再序:生成式人工智能下的信息秩序变局与治理

发布日期:2024-09-19 21:15

来源类型:抖音文案 | 作者:杨伟汉

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【2024年新澳门开码结果】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【新澳六开彩号码记录乾坤未定】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【六开彩澳门网站】

摘 要: 以ChatGPT为代表的生成式人工智能促动信息秩序的巨大变局,重新分配社会信息资源和数字权力。数据喂养的偏狭、使用的偏误和伦理的偏颇为生成式人工智能输出的虚假信息、错误信息及恶意信息流入信道创造条件,现有信息秩序面临失序风险。调整信息治理范式与治理方向成为智能传播格局下AI治理的题中应有之义。本文提出实现信息秩序再次和谐的共创进路与治理方向,即以法律为约束,构建软硬法兼施的复合型AI信息治理法律框架,将法治贯彻到生成式人工智能信息治理的全链条多领域,全面提升法律规制效能;以内外兼顾的技术善治实现技术真正服务于社会价值和公共利益的图景,促动技术的自我纠偏与完善;构建生成式人工智能流域化治理模式以直面多元治理难题,将多元数字行动主体纳入差异化规制与协同性治理体系以实现信息秩序的复建。

关键词:生成式人工智能;ChatGPT;信息秩序;智能传播;信息治理

一、传媒之变:生成式人工智能促动信息秩序变局

2022年11月横空出世的ChatGPT短短3个月内吸引用户过亿,成为引发生成式人工智能浪潮的现象级应用。Stable Diffusion、Midjourney、文心一言(ERNIE Bot)等生成式人工智能趁势勃兴。作为一种具有重大变革意义的新兴媒介技术,生成式人工智能正在嵌入智能传播格局,成为撬动互联网信息秩序转向的关键变量。

ChatGPT在生成式人工智能发展史上具有里程碑意义,是一项革命性的人工智能技术,问世后迅速激发出国内外学术界巨大的研讨热情。喻国明等人指出,以ChatGPT为代表的预训练生成式人工智能应用,不仅能对多维场景中的复杂任务进行集成,更具备接近真人对话的人机交互体验。这种人机交互体验的产生与大模型算法、大数据和大算力技术密切相关,在三大关键技术的支持下,ChatGPT依托大型语言模型(Large Language Model,LLM)创建人类偏好数据,持续训练反馈模型,生成一种较为理想的新型人机交互模式,在拟真度层面实现跃升的同时逐步走向通用人工智能(Artificial General Intelligence,AGI),激发媒介生态的巨大变局。

ChatGPT开启了“人机共在”的新主体时代——在此之前,机器向人学习;在此之后,人开始向机器学习。改造世界之途中人与技术不再是主客二分,而是逐渐变为相互的委托者、延伸者和赋能者,实现主体共在。显然,人与机器之间的“不可通约性”被以智能技术为主导的人机传播所打破,人类传播的本体论根基受到撼动。人已不再是万物的尺度。在可见的未来,人与人工智能技术将在“互构”与“互驯”中持续博弈,前者将在赛博格化改造中实现“人机嵌生”,而后者将在“社会化建构”中被赋予人类角色身份。机器的深度进化激起人类的深度省思,而逐渐“AGI化”的ChatGPT无疑催化了人类关于“人之为人”的思索。机器的人类特征“被赋予”是人类寻求技术及自身突破的表征,但人类也将在技术内嵌的工业化标准中成为孤立的个体。以ChatGPT为代表的生成式人工智能迫使人类重新思考技术的价值,使其在人与机器的双向建构中再次明确自身的地位,并逐渐接纳机器作为与人类共在的社会行动者主体之一的身份——人与机器,已然“互为尺度”。

在以ChatGPT为代表的生成式人工智能浪潮下,人类的文化地图与认知图景将面临何种颠覆的问题尚在思索之中,而媒介生态巨大变局下的信息秩序变革已然走入眼底。ChatGPT将现有信息秩序带入人工智能内容生成(AI Generated Content,AIGC)阶段。信息秩序在宏观上表现为信息系统的底层运行逻辑与多主体间的协调交互,在中观层面涵括信息生产规则的共守,在微观层面表现为信息样态的呈现。生成式人工智能在宏观层面、中观层面与微观层面分别重塑了现有信息秩序,亦涵盖了当前学界对生成式人工智能的主要研讨方面。

在宏观层面上,信息秩序能够有序运转的重要基石是稳态的信息伦理规范体系,而信息传播有赖于媒介技术的承载与技术逻辑的支配。因此,信息伦理的规范主要依靠技术伦理的共识。而技术伦理是历时性的,过去的技术伦理未必适用于对未来技术的研判,以ChatGPT为代表的生成式人工智能会将传播伦理引入全新的规约局面,在具身认知、信息伦理、数据规制等方面激发信息治理挑战。作为信息秩序运行主体的人类在生成式人工智能的介入中出现边缘化风险,“模糊了人类要素与非人类要素的边界”。

在中观层面上,生成式人工智能打破信息生产规则,刺激信息价值链的重构再造。信息价值的实现主要依靠三个环节,即信息内容的生产、分发与消费,而信息生产规则主要围绕内容生产与分发。生成式人工智能首先冲击部分人力密集型环节,并取代某些常规程式的内容生产环节,描摹以用户个性化资讯进行信息整合生产的“提问式新闻”前景,大大缩减生产流程。虽然AIGC解放了信息生产力,但其所用来训练的部分虚拟数据资源或被异化,模糊了真实与非真实的界限。在内容分发上,生成式人工智能亦能够借助算法对不同维度的人类喜好进行智能学习,将聚类信息精准分发至多元受众。

在微观层面上,生成式人工智能催生信息新样态,推动信息消费转型。大模型为生成式人工智能提供了更为精准的用户意图提取方式,从而改进了生成结果,使用户能够个性化定制信息并消费,信息价值链自此完成闭环。

由此可见,现有的传播规则、传播秩序以及传播伦理将在生成式人工智能的蓬勃发展中发生巨大转变,社会权力将面临再次转移与重新分配。以ChatGPT为代表的生成式人工智能将在极大程度上重构互联网信息生态。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。在信息生态面临未有之大变局之时,稳定智能传播格局下的信息秩序成为题中应有之义,而学界当前鲜有提及。有鉴于此,如何发掘生成式人工智能造成信息秩序失衡的隐患并寻绎新智能情境下信息秩序的复归进路,成为本文着重探讨的信息治理之问。

二、信息失序:生成式人工智能对现有信息秩序的影响

信息失序是指互联网场域中异质性信息的流散传播造成信息秩序的失衡。有学者将信息失序简明概括为“信息环境受到干扰”,并将“虚假信息”(disinformation)、“错误信息”(misinformation)和“恶意信息”(malinformation)视作信息失序的三种类型。当前,学界对虚假信息、错误信息与恶意信息并无明确界定,本文参考胡宏超、杨洸、沈正赋等人的观点,在生成式人工智能语境下重新界定信息失序的三种信息类型:虚假信息是指具有主观倾向性的不实信息;错误信息是指真实性中断的不实信息,但并不包含传播主体的主观意图;恶意信息是指意图造成负面影响的真实信息(表1)。需要注意的是,由于生成式人工智能所获得的数据具有时间局限性(如ChatGPT的供给数据截至2021年),因此三种信息类型的界定必须在特定情境之下,不能将生成式人工智能无法更新或处理的信息视为导致信息失序的异质性信息。

虚假信息、错误信息与恶意信息的扩散传播是信息失序的重要动因与主要形态。信息失序并非生成式人工智能出世后的一种新现象,但以ChatGPT为代表的生成式人工智能的发展加速了信息失序问题的生长与更新,并改变了信息失序问题的传统形态,使其对信息传播全过程产生颠覆性影响。

(一)“喂养”的偏狭:阻滞人机交往秩序

生成式人工智能的信息输出能力主要来源于数据的输入与模型的训练。以ChatGPT为例,其基于生成式预训练的变换器(Generative Pre-trained Transformer,GPT),从太字节(terabyte)级训练数据中学习隐含的语言规律和模式,训练出千亿级别参数量的大型语言模型,从而生产“拟人化”的新信息内容。因此,生成式人工智能背后的主导者以偏狭的“喂养”方式向生成式人工智能投送异质性信息数据,后者可能产生训练缺陷,生产出虚假信息、错误信息、恶意信息等异质性内容,阻滞人机之间的正常交往,进而致使信息秩序出现紊乱。

首先,生成式人工智能会因虚假数据的投喂而产出干扰认知的不实信息。虽然生成式人工智能本身都有严格的程序限定,不具有传播不实信息的主观意图,但生成式人工智能的输出呈现是以人类的数据供应为前提的,即生成式人工智能“为人类的服务程度首要取决于人类对技术的养成程度 ”。这意味着,如果具有不良意图的用户以本身具备主观倾向性的虚假信息数据“喂养”生成式人工智能,后者在反馈训练的过程中很有可能会生成“拟主观”性的虚假信息,并将其传输给与之对话的用户,会在一定程度上混淆接收主体的自我视听,造成人机传播受阻。

其次,“喂养”的偏狭将为生成式人工智能提供输出错误信息的巨大可能性,强大算力自洽逻辑最终变成“一本正经地胡说八道”。生成式人工智能背后的语言模型好比“随机鹦鹉”,只会从海量训练数据中抽取语言形式并无序拼合,其学习算法并不能真正理解数据的实际意义,因而在无法辨明学习问题时出现“自信满满言之凿凿地输出错误内容”的“幻觉”情形。当错误信息与人的认知结构进行碰撞时,易于辨识的错误信息只会与其发生“物理反应”,最终被“拒之门外”,而那些含糊不清、模棱两可、能够以假乱真的错误信息则很有可能在生成式人工智能的粉饰下与人类认知结构发生“化学反应”,被当作某种新知识进入人类大脑,最终对人类的认知与学习产生干扰。

再次,生成式人工智能可能将恶意信息夹带于人机对话之中,将有偏见的内容以看似正确、权威的方式进行陈述。例如,艾格蒙(Agomuoh)在ChatGPT关于种族与性别的态度表示中发现其生成的答案往往更偏爱白人和男性。这与ChatGPT背后的“AI喂养师”和主要用户群体有很大关联。除多方“吸取”数据之外,ChatGPT的技术所有者OpenAI公司还会采取有监督微调(Supervised Fine Tuning,SFT)方式训练初始模型,其中可能存在价值偏好的数据集(Data Set)将被用来训练数据奖励模型(Reward Model,RM),最后由公司将SFT与RM模型结合并利用近端优化策略算法(Proximal Policy Optimization,PPO)进行模型调整与迭代。在迭代过程中,训练人员自身的文化背景与社会属性必然会导致“投喂”过程中“私货的夹带”,并且,ChatGPT等生成式人工智能所收集的数据往往来源于声量较大的数据集,当某些观点因支持群体数量较少时,这些小声量数据或被边缘化,使得AIGC缺乏多元性与包容性。当生成式人工智能在持续性数据“吞咽”中被驯化出排他性偏见后,会在算法感知下将其逐渐“奉为正朔”,使生成内容本身就烙印有饲喂主体与数据的刻板印象,可能会被具有恶意目的的行动主体所利用,以技术权威支配对话或实施恶意行为,阻滞正常的人机交往。最后,在偏见性数据的吞噬与前台内容的呈现过程中,信息的“可见性”得到生成式人工智能的筛选与权衡——即使生成式人工智能所呈现的信息都是准确的,其也能够通过信息算法与“议程设置”将正面与负面信息的呈现比例进行选择性调配,以看似中立的内容生产遮蔽真理,于隐性之间完成恶意信息的输送,进一步强化接收主体的认知偏见,甚至是心理仇恨。

(二)使用的偏误:扰动信息秩序结构

信息秩序结构的稳态依赖于信息文本、信息主体与信息环境三者的相互调衡。作为信息主体的用户将生成式人工智能所创建的信息文本置入信息环境的过程即为信息秩序的运转逻辑。当秩序结构中的三要素出现异态时,信息秩序结构会发生相应的失衡。在信息秩序结构中,信息主体拥有最大的能动性和影响力。虽然生成式人工智能的传播尚被框限于人机交流之内,但具备主观能动性的人类却能够将生成式人工智能所生产的内容作为信息在人机传播网络中进行扩散,进而蔓延至大众传播、群体传播之中。当信息主体对生成式人工智能的使用发生偏误时,则会释放异质性信息,加剧秩序失调。因此,信息秩序结构的正常维持与运转取决于秩序内多元信息主体的和谐。

在信息主体接收信息文本的过程中,生成式人工智能所创建的部分信息文本已因“喂养”的偏狭而异变,当人类由于缺乏甄别能力而将该部分信息向外扩散时,必然会污染正常的信息环境,造成失序的可能。生成式人工智能技术的不当使用会生成大量虚假信息,在传播扩散的过程中消耗主体间信任资本。Stable Diffusion、文心一言等生成式人工智能均已具备AI作图的算法能力,若信息主体以特定指令使生成式人工智能生成不实图像,或放任诸如此类的媒介合成物流入相关产业“以假乱真”,则会损害相关信息主体的权益,阻碍信息流通,冲击信息秩序结构。虽然在生成式人工智能初期,虚假信息的甄别难度尚在可控范围之内,但生成式人工智能的训练模式使其本身具备极强的自塑性,能够通过单一用户的个性化数据逐渐响应、契合用户偏好,以自适应能力为用户定制独特的信息输出模型。当“别有用心”的用户群体对生成式人工智能进行规模化的刻意训练后,生成式人工智能或将“作茧自缚”,以定制性信息的持续输入将自身模型困于“信息茧房”之中,进而产生精准且高效的虚假信息生发模式,对信息秩序的干扰量级将会呈指数型增加。

生成式人工智能的内容生产可能导致错误信息在“拼合”生产中被捏造而出。ChatGPT甫一面世,就被大量用户当作知识学习的渠道与工具。然而,ChatGPT所生成知识文本并不会标注来源,可靠性与准确性均无法保证,即使用户本身博闻强识,也无法对ChatGPT从海量数据中糅合的知识进行逐一甄别。ChatGPT所生产的错误信息很有可能会紊乱用户的解码,并难以避免地进入节点传播的信道之中,污染用户间交流沟通的信息环境。当以ChatGPT为代表的生成式人工智能将错误信息传递给用户后,用户会先行实施人内传播,对错误信息进行过滤或接收,若用户未能甄别出错误信息而将其接收,则可能转身面向自己的社交网络,将错误信息二次传递,经再次接收的用户更多轮次的传递,加大错误信息的传播效果。ChatGPT曾在与学者的对话中提到自身具有“反身性”而能够纠正部分不良数据,但本文认为事实并非如此。反身性原本指涉人类自身,吉登斯(Giddens)将反身性指为个体在消解中自省,能够在自我问询与反思中再次嵌入现代社会以实现自我认同。错误信息的广泛传播将为ChatGPT再次创造可供训练的海量数据(尽管这些数据本身是错误的),由此,纵然ChatGPT等生成式人工智能具备类似于反身性的自我纠错机制,该机制也会在错误数据的再次汲取并被训练认同的过程中失去作用。

生成式人工智能还可能会以恶意信息对其他社会行动主体实施恶意行为。瑞伊(Ray)认为,类似于ChatGPT的复杂语言模型具有被用于制造垃圾邮件、深度伪造内容或参与网络欺凌的可能。部分信息主体或可隐匿于生成式人工智能的幕后,窃取商业、技术等行业机密,如三星员工将公司内部半导体数据上传到ChatGPT以寻求各个方面的帮助,导致三星重要技术机密遭遇窃取与泄露。生成式人工智能的数据获取来源尚不透明,部分机密性信息被生成式人工智能吸收后,用户通过提问的方式有可能获取,使其为己所用或流入公共信息管道,以敏感信息文本刺激信息环境改变,最终撬动信息秩序结构的变动。

(三)伦理的偏颇:冲击社会公共利益

生成式人工智能是一种“对话式”的撒播,其在与个体“对话”的过程中保持着一定的个性与偏好,但又因其面向全球的多元用户进行“撒播”,以遮蔽个体差异性的方式实现对公共性的尊重。究其实质,生成式人工智能仍是一种以对话为形式的撒播技术,其文本的输出有赖于被饲喂的数据集,人机交流中的话语转换自然也跳脱不出基于众多数据集而形成的“脚本”。用户看似在与机器进行私密而独特的交谈,机器看似在就用户的个性话语给予定制型回答,但其实用户的语料会被喂养给生成式人工智能,并在后者与其他用户的对话中被公开,机器所给出的回复亦不过是对此前众多相同或相似问题进行运算而得出的“经验”。用户本质上是在与某一肉身主体或群体对话,在人机交流过程中被动接受着信息的撒播。当信息不断被撒播至公共场域后,信息秩序的底层运行逻辑将受到影响。

上文提到,信息秩序的运转维系于信息文本、信息主体与信息环境的交互作用和传播关系,而AIGC撒播使原本相对静态与恒定的信息秩序转变为一种被技术与公共实践所建构的动态新秩序,人人都成了信息生产的主体,这种信息生产的赋权并非传统意义上的内容发布与信息交流,而是将自己的意志、情感、价值观融入计算过程,牵动信息文本与环境随之变更。可以说,在生成式人工智能语境下,不论用户是否具备主观意图,其与机器对话的语料都具备传播给他人的可能性,在互联网上发表的文章、言论等会以人机对话的方式向外输送。用户在技术之后彻底隐匿了ID和身份,生成式人工智能自然而然地成为思想的传声筒,后者在与他人对话的过程中潜隐不彰,他人只闻其声,不见其人,甚至将生成式人工智能所传递的信息视为技术的理性、社会的合意,从而影响公共实践。因此,技术伦理在生成式人工智能的公共性使用中变得弥足珍贵,伦理的失范势必会冲击公共利益。

生成式人工智能的背后具有技术研发方的在地性烙印,会受制于技术研发方的指令与控制。如果技术研发方在其训练过程中掺杂恶意目的,生成式人工智能可能成为部分行动主体施加数字霸权的触手。生成式人工智能背后的技术公司与标注人员都处于特定的制度环境下,扎根于各方利益交融的生活世界之中,若其在相关利益方授意下刻意在人工数据训练行动中向AI投喂相关国别的负面信息,在利益驱动下有意提供竞争对手的污名化数据,那么,这种恶意信息将在持续生成与输出的过程中潜移默化地影响特定群体的价值思维与认知图景,逐渐形成数据强势方对数据弱势方的算法蹂躏和技术霸权。正所谓“一方水土养一方AI”,生成式人工智能难以持续保持价值中立,往往会受到特定权力体系与社会环境的影响。当不同背景的生成式人工智能均以偏见性数据生成恶意信息并交互扩散时,种族之间、国家之间、组织之间的裂痕将被指数级扩大,其可能后果必须得到重视。同时,部分信息主体亦可利用生成式人工智能内嵌学习的诸多脚本生产新闻、诗歌、论文等常态型文化与文本。若前台用户具有传播异质性信息的动机,生成式人工智能极有可能成为部分主体干扰社会秩序的跳板。目前,以ChatGPT为代表的生成式人工智能还不具备直接介入网络公共空间的能力,但拥有一定传播手段与渠道的人能够赋予生成式人工智能的媒介合成物以“自我意图”,将诱导而出的失序信息置入公共话语场域,对作为公共基础设施的新闻媒体、拥有公信力的政府部门构成挑战,扰乱正常的社会信息秩序。

三、信息再序:生成式人工智能浪潮下的信息治理

生成式人工智能的异军突起使机器被抬升到前所未有的主体地位。在人机融合语境下,客观化的事实链、个性化的价值链与共性化的责任链在人与智能间交织纠缠,人与机器成为彼此的尺度。信息秩序的失衡会对整个社会秩序的正常运转造成消极影响,因此必须通过治理实现信息秩序的再次稳定,促使生成式人工智能冲击下的秩序从“失序”转向“再序”。有鉴于此,信息治理需在技术应用与人文关怀之间寻求平衡,从法律、技术与机制三方面进行命题施治。

(一)法律层面:构建软硬法兼施的复合型AI信息治理法律框架

生成式人工智能因其海量的数据集训练与语言模型自优化能力而实现AI技术的巨大飞跃,推动信息传播全新变局,由此带来诸多新型法律风险。我国在全球率先对人工智能进行法律规制,先后颁布《新一代人工智能发展规划》《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《新一代人工智能伦理规范》《科技伦理审查办法(试行)》等政策和法规,初步形成多层次、多方位、多主体的制度框架。尤其是,我国在全球率先对生成式人工智能进行立法治理,2023年7月颁布的《生成式人工智能服务管理暂行办法》(下称《办法》)提出“发展和安全并重、促进创新和依法治理相结合”的原则,鼓励生成式人工智能创新发展,遵循包容审慎和分类分级监管的原则。该《办法》对生成式人工智能服务各类应用场景进行了深入考量,在延续《中华人民共和国数据安全法》分类分级保护制度的同时以“不适用”场景的界定为技术的长远创新提供了充分发展空间,对我国生成式人工智能未来的发展与规制具有指导性意义。对信息失序现象的法律治理应在该《办法》指导下,构建软法和硬法相结合的复合型AI信息治理法律框架。

在复合型AI信息治理法律框架下,原则上对技术本身继续坚持包容审慎的态度,激励其不断创新,提升模型的训练水平和算法的算力效果,在积极研发、精密论证、严格测试的基础上使其能够合规合法地进入公共信息秩序;对人类则秉持复合管理的方针,细化生成式人工智能的研发方、使用方、监管方等多元主体的信息权力,理清不同主体对生成式人工智能所生成的失序信息在应用与传播过程中的责任界限,做到积极创新和科学管理相结合。

软法与硬法的兼施能够为新信息秩序的稳定提供切实的规范约束。在硬法方面,作为生成式人工智能的核心,数据和算法应该受到严格的制度规范。首先,应建强数据合规法制体系,数据是国家战略中关键的资产,要明确生成式人工智能数据收集的权责边界,理清生成式人工智能数据共享的责任溯源,并为生成式人工智能数据输出的合规争议提供法理意义的解决路径。当生成式人工智能的数据使用问题得以进一步明确,虚假信息、错误信息与恶意信息的生成概率与传播效果就会明显下降,信息秩序将得到良好维护。其次,需建立算法评估与技术备案相结合的安全条例,保证算法的公开透明,打击算法黑箱、算法歧视等现象,将技术研发方对生成式人工智能的算法设置纳入有关部门的监管流程;同时,对技术研发方在生成式人工智能开发与升级过程中所使用的技术进行逐一备案,增强技术使用的可解释性,防止国家核心技术的不当使用或不正当技术的滥用。再次,建立数据与算法的风险评估体系,采用国家标准与行业自律相结合的方式,对生成式人工智能运作过程中所出现的信息问题和信息风险进行及时有效的排查与管控,建立“涵盖事前、事中、事后的全流程监管机制”。

在软法方面,规范引导正向信息的传播,坚守生成式人工智能语境下的“信息纯真”。“信息纯真”是指信息内容必须符合真实情境和客观事实,并且不包含价值偏见、行为意图等主观倾向。确保信息纯真是在生成式人工智能介入信息生产过程后重新恢复信息秩序的题中应有之义。在信息生成环节,技术研发方应加强行业自律性规范,保证信息来源的可靠与准确,避免因数据投喂失当或自身主观思想影响信息纯真的构建。在信息扩散环节,多元主体应实现信息纯真的协同引导与规范传播,以信息监管与纠正程序对所生成的虚假信息、错误信息和恶意信息进行消除与掩盖,并加强政府、媒体组织、企业、意见领袖等多元主体的“信息瞭望”作用,及时对规模化传播的异质性信息进行预警与澄清,使正向信息得以顺利传播。

(二)技术层面:以内外兼顾的技术善治实现工具理性与价值理性并彰

技术是生成式人工智能得以正常运作的核心支撑,在信息秩序的建构与维系方面发挥着不可估量的重要作用。在信息治理框架下,对技术的治理应该内外兼顾,于内聚焦技术本身,完善自身技术属性,以工具理性规避生成失序信息的潜在隐患;于外关切公共利益,重视人本主义指导下的技术善治,以价值理性服务于社会整体之良善。

对技术而言,当媒介技术日益发展,算法模型持续优化,生成式人工智能对人类的依赖度将会进一步降低,技术误用与滥用的风险将进一步增加,从而对信息秩序将带来新的因应挑战和治理难题。政府、企业和机构应积极引导技术使用并及时制定相应规范,预防技术的误用和滥用,以保障其平稳运行。在数据合规、算法发展的政策指导下,把握源头技术治理的重要原则,规约行业的技术行为。第一,设立数据与算法行业的技术标准,在充分对话的基础上确立行业规约与价值;第二,借助媒介为行业规范的探讨设置议程,在协商中寻求AI行业的自律准则和科技伦理;第三,赋予生成式人工智能和智能传播平台以自我矫正和深度学习的能力,能够在算法纠偏和数据清洗能力提升的背景下,将不良运算过程和数据排除在外,自动识别潜在的异质性信息,有力核查输送信息的真实准确性,以自我净化的方式缓释信息秩序紊乱的压力。

对公共社会而言,将“以人为本”作为信息传播新生态下的核心发展逻辑,是实现新信息秩序下人类生活稳定与价值共创的首要命题。在生成式人工智能充分撬动全社会的数字设施时,人被彻底异化为网络节点的风险日益扩大。在生成式人工智能推崇算力、算法与数据的背景下,人被推到了成为“保证数据流最大化的工具”的边缘,对生成式人工智能语境下信息秩序重新恢复的治理方向探讨也暗含着数据至上的错误思潮。然而,技术的进步只是劳动的延伸而并非替代,智能技术不能亦不该成为人的“自缚之茧”,人的权利与权力应超越技术本身,其所生产的数据亦应超脱智能技术的困囚,从人本主义视角进行勘定与规范。例如,针对生成式人工智能的治理应遵循人本伦理,在保证人的知情同意、充分自由、隐私保护等原则基础上实现“技术善治”,不应以工具理性压倒价值理性。

内外兼顾的技术善治是实现新智能传播格局下人机能力和行为重新调衡的新契机。技术层面的治理应该积极引导人类的独有能力与生成式人工智能的庞大数据运算相互配合,使其发挥出人机能力协同的“最大公约数”,提升智能信息生产的规模、效率与质量。同时,对内着力解决技术差异使用所带来的信息资源的机会不平等问题,弥合因媒介技术高度发展而产生的数字鸿沟新形态;对外积极拓展服务使用主体的接触面,确保技术主体的使用公平和全社会的信息公平。作为一种具有变革意义的智能技术,生成式人工智能在促动信息变局时必然会渗入社会肌理,成为主体信息实践的重要设施,也因此被赋予“裁决”信息公平的间接权力。技术治理应推动生成式人工智能超越信息主体的阶级层次、文化背景、社会烙印等属性,使所有主体公平地获得信息资源和认知经验。

(三)机制层面:推进“集成管理,协商共治”的流域化治理

生成式人工智能可以迅速识别场景并抓取所需数据,生成个性化内容并深化智能交互的数据场域以及多媒介终端时空场景,由此重塑了信息内容生成范式,使信息主体呈现出“协作、竞争以及人智共生”的特征。生成式人工智能依托革新式媒介技术创建了新的信息空间,处于空间内的信息主体会因人机之间紧密程度的不同而解锁不同的媒介时空场景,并以此建构对信息秩序与世界图景的认知。人机联系的紧密度本质上取决于人类的数字素养。一个人的数字素养越高,越可能合理地运用AIGC获取想要的信息。反之,则可能无法正确运用AIGC,在智能鸿沟的不断加深中失去拼合世界真实图景的可能性。

生成式人工智能所创建的新信息空间可被视为虚拟的流域空间。流域既以水为基础和纽带,也承托着人类的生产生活,是自然与社会相交融的整体。与之类似,在生成式人工智能建构的“虚拟流域”中,其以强大的信息生产能力源发出一条“水文”状况极为复杂的“信息河流”,“信息河流”犹如传播信道贯通域内的多元信息主体。信息主体则依照数字素养的大小分列为“数字强势方”“数字居间方”“数字弱势方”三类主体,分别分布于河流的上中下游。

“数字强势方”的人机传播效能强大,往往以技术开发者的身份控制AIGC的算法、模型、功能和使用边界,主导生成式人工智能的信息生产,影响“信息河流”中的“信息纯真”度。“数字居间方”以最多的人数位居中游,基本为AIGC的使用者,能够以一定的数字素养介入智能传播并能维持部分“信息纯真”。由于上游地区“算法黑箱”与“数据不透明”的存在,“数字居间方”难以识别全部失序信息,会在使用AIGC的过程中将自身接收或生产的失序信息再次置入“信息河流”而传播至下游“信息洼地”的“数字弱势方”。“数字弱势方”多为技术拒绝困境下的技术无能者,如老年人、底层劳动者等“数字遗民”,他们所接收的信息往往受到过污染,自身并无甄别或净化能力,因信息认知偏差易导致对现实图景的理解偏差。由此可见,数字素养不均衡所导致的失序信息泛滥问题将影响生成式人工智能扰动下信息秩序的复归。

自然流域中,域内的经济社会文化活动会与自然生态产生交互影响,形成“自然-经济-社会复合生态系统”,而虚拟流域中的信息主体活动与信息秩序亦会在交互影响中形成复合系统。本文提出的“流域化治理”即试图将自然流域的生态施治理念、方法模式化,运用于生成式人工智能促动下的信息治理场域。

传统的数字治理范式较为关注治理对象所暴露的单一突出问题,如在AI治理领域重点关切数字信任问题,在算法治理领域更加注重算法黑箱问题,在数据治理领域偏向数据安全问题。而在生成式人工智能扰动整体信息秩序的节点之下,此类治理范式更像是在自然流域中以行政区划为原则所进行的“属地治理”,前者弱化了不同领域间在信息治理中的协作与联系,后者割裂了流域生态环境的系统性和整体性,均难以从整体上维系善治。

为突破治理分割困境,水利学研究者提出“协同治理”以应对流域环境治理的公共性扩散,为防止因权责划分和利益分配引发地域矛盾冲突提供机制保障。实际上,AIGC语境中的信息治理同样需要以整体眼光统筹全局,协调和组织虚拟流域内各信息主体之间的数字权益与信息资源,这是重新恢复生成式人工智能扰动下信息秩序的内生语境与实践逻辑。在流域化治理中,必须以上游规制为主要导向,以减少全局治理的阻力;以中游自律为重要共识,从而使其在与上游协同和与下游帮扶的过程中发挥正向功用;以下游善治为补差手段,从而弥合智能鸿沟、稳定信息秩序结构,上下共创,彼此协同,多元主体共同促进信息秩序的向善与再稳固(图1)。

在上游、中游、下游协同信息治理的过程之中,还必须防止“协同势差”的出现。“协同势差”是对现有自然流域生态治理模式的一种理论反思,概括了部分属地依托优势位阶不断获取优质资源进而导致“伪协同”的诱因。在虚拟流域中,上游、中游与下游或因彼此数字禀赋的显著差异成为流域内数字利益相对独立的博弈主体,影响信息秩序恢复的全局性治理。有鉴于此,破解生成式人工智能下的治理“伪协同”困境,除了域内各主体的自我持守与规范,亟须以宏观力量的嵌入对全流域AIGC进行监管与统筹。对此,自然流域治理中的集成化管制模式应用于虚拟流域中同样恰当。集成化管制充分考虑流域内不同主体之间的内在张力冲突,采取多元手段协调各流域子系统间的交互作用关系,结合各区域主体的现实需求及不同流段的功能分布,将流域系统治理的关键要素予以整合,统筹施治。在虚拟流域中,政府应积极扮演“集成管制”的角色,作为自主性力量协调域内各方的信息利益,对生成式人工智能扰动下的整体数字布局进行监测与再分配,积极设置各流段间的对话与协商,促进主体间的认同、共识与相互承认,为在AIGC资源与成本的平衡下实现信息秩序复归与信息善治的目标作出努力。

四、总结与讨论

在生成式人工智能的促动下,人类信息传播方式正在发生根本转变,信息治理格局行将重构。以ChatGPT为代表的生成式人工智能将对社会信息资源和数字权力进行重新分配,这既是对现有信息秩序的重大挑战,亦是构建更加高效和谐的信息新秩序的重大契机。

现有信息秩序在生成式人工智能的用户接入和技术成熟的过程中可能发生失衡风险。数据投喂的偏狭、信息生成的偏误和技术伦理的偏颇可能在微观、中观、宏观上干扰现有信息传播秩序,以虚假信息、错误信息和恶意信息的释放污染信息环境、阻滞信息交往,对人机共生议题需要更深度的思考。信息秩序的再次恢复与实现和谐,首先应以法律为约束,构建复合型AI信息治理法律框架,以软法与硬法的结合并作,将法治贯彻到生成式人工智能信息治理的全链条多领域之中,全面提升法律规制效能,营造清朗安全的网络空间。其次,须以工具理性完善技术的自我纠偏与内部自律,同时向外彰显价值理性,以“以人为本”的治理理念作为实现人类利益与价值和谐的核心关怀,对生成式人工智能进行必要的技术治理,让技术真正服务于社会价值和公共利益。再次,构建“集成管理,协商共治”的生成式人工智能流域化治理模式以统筹全局,将多元数字行动主体纳入差异化规制与协同性治理的体系之中以逐渐实现信息秩序的复建。同时,直面促进生成式人工智能信息善治的待解决问题,探索实现信息再序的必答之题和必由之路,为生成式人工智能以多元技术特质和社会面向持续获取介入信息传播生态后的信息秩序问题提供有价值的思考。


来源:《新闻界》杂志2023年第10期

作者:张文祥(浙大宁波理工学院、浙江大学网络空间安全学院双聘教授)、沈天健(山东大学文化传播学院新闻传播研究所助理研究员)、孙熙遥(澳门城市大学创新设计学院博士研究生)

编辑:邓汝濛

【声明:本号为宣传传媒领域融合创新的理论与实践平台,属官方公益账号,转载此文是出于传递更多信息之目的。若有来源标注错误或涉嫌侵犯您的合法权益,请联系我们。我们将及时更正、删除,谢谢】

Akkaya:

1秒前:当生成式人工智能的数据使用问题得以进一步明确,虚假信息、错误信息与恶意信息的生成概率与传播效果就会明显下降,信息秩序将得到良好维护。

源:

4秒前:集成化管制充分考虑流域内不同主体之间的内在张力冲突,采取多元手段协调各流域子系统间的交互作用关系,结合各区域主体的现实需求及不同流段的功能分布,将流域系统治理的关键要素予以整合,统筹施治。

Pau:

1秒前:其次,“喂养”的偏狭将为生成式人工智能提供输出错误信息的巨大可能性,强大算力自洽逻辑最终变成“一本正经地胡说八道”。

Nattapong:

8秒前:ChatGPT将现有信息秩序带入人工智能内容生成(AI Generated Content,AIGC)阶段。