哈希游戏- 哈希游戏平台- 哈希游戏官方网站
人工智能(Artificial Intelligence),英文缩写为AI。目前学界对人工智能技术还没有形成完整统一的定义,普遍认为它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。该领域的研究包括机器人语言识别、图像识别、自然语言处理和专家系统等。人工智能是对人的意识、思维的信息过程的模拟,它不是人的智能,但能像人那样思考,也可以超过人的智能。
在信息爆炸的时代里,受众需要媒体提供深度和带有独到见解的的报道,而机器人新闻只能局限于固定的模板。人类记者有个人经历、风格的差异,而写稿机器人并无个体的区别,会造成严重的新闻同质化现象。机器人的写作语言枯燥乏味,难以表达复杂情感。机器人新闻在生产逻辑上与传统新闻相冲突,机器人新闻生产的出发点和核心诉求在于快速和个性化,而非传统意义上的新闻价值;机器人新闻为新闻披上“技术”的外衣,将观众的注意力吸引到形式消费上,令新奇的体验僭越了新闻价值,违背新闻报道的基本要求。
人工智能与新闻工作者的有机结合是未来新闻业的发展方向。首先,智能算法用于分析数据、发现热点事件和重大事件并提供初稿,随后记者将通过深入调查、深度思考完善新闻报道,最后由智能推荐将信息有计划性地送达用户手中。面对信息爆炸和人工智能快速发展的趋势,新闻记者要积极应对,发挥人的主体地位,增强深度分析和深入调查能力,提升对人工智能技术的运用与把控,实现“人机共生”,促使未来的新闻业向更加高效、智能的方向发展。
人工智能尚不能分辨新闻内容的真伪,无法考证新闻信息的真实性。基于热搜机制的新媒体产品对“新闻爆款”的追逐加速了假新闻、谣言的传播,也带来了公民隐私被侵犯的风险。媒介从业者应主动承担并不断强化作为资讯流通中“把关人”的身份,对人工智能的新闻内容进行把关,加强人工干预,对新闻源进行核实。同时,新闻从业者还要成为人工智能技术的“把关人”,不断优化人工智能技术,完善人工智能新闻生产的技术规范,平衡新闻信息的个性与共性,确保新闻传播链的真实有效。
拓展广告投放增量。(三)人工智能推动广告消费体验的升级:打造智能化产品的体验场景在VR、AR等新技术的加持下,广告产业迎来了新的机遇。模拟现实的广告模式可以在广告平台、广告用户和广告主之间搭建起一个良好的信息沟通和情感联系渠道,增强用户的情感共鸣,实现广告的场景化体验。网易云将线上制作的第一人称叙述视角下的广告与线下的音乐餐厅进行双向互动,使得消费者可以突破时间和空间的限制去体验音乐,同时,这支广告也为消费者带来了别开生面的体验,使人身临其境,大大提升了广告的触达效果
算法模糊和非精准推送,复杂丛生、凌乱怪力。由交易双方信息不对称产生的混乱选择,进而出现市场交易质量下降。有时在“欺骗性表象”中掩盖了选择的无力。而消费者可能还不知情,甚至还在为此喝彩。一旦产生逆向选择(指在两者交易进行之前,出现信息不对称的状况。因为出现信息不对称以及市场价格下降,导致“劣币驱逐良币”,从而造成交易产品的质量下降,进而导致资源配置不平衡的现象),会弱化社会资源配置,降低社会福利。在劳动力市场上表现为失业,在商品市场上表现为商品积压或滞销。人工智能广告看似越来越人性化,实际上在现在的弱智能技术的助力下将广告主和商品推为中心,消费者则疏离于边缘。
僵尸网络在制造舆论方面具有大规模和群体化的优势。在议题讨论中,僵尸网络可以在短时间内产生大量相似的推文内容,或批量转发同一条推文,使其成为热门推文,以此来营造议题的虚假流行。僵尸网络对网络舆论的伤害很大。一方面僵尸网络产生的误导或有害信息可以在短时间内达到一定规模,影响人们对真实信息环境的判断;另一方面僵尸网络与其他用户网络交织在一起,是对真实网络的一种渗透,通过更深入的交互,社交机器人往往成为网络的中心节点,在网络中发挥核心位置。
ChatGPT通过采用先进的机器学习和深度学习技术,可使社交机器人具有更强的自然语言理解和处理能力,在与用户互动时能够更好地理解用户的意图,准确判断用户的情感和需求,进而能够更智能地生成高质量的文本,而非以往易于检测的“重复内容”或“垃圾信息”。同时,ChatGPT还提高了社交机器人在处理复杂任务、解决问题的能力,使其更接近人类的思维方式。随着社交机器人智能化生成内容质量的提升,可以预见,会有更多的普通用户关注社交机器人账号,这也使得社交机器人的社会互动网络变得与真实人类用户相似,难以识别。
自动化新闻是智能技术与新闻业融合产生的词汇,起源于2006年的美国。我国最早的自动化新闻出现在2015年,是腾讯网的Dreamwriter自动生成的财经报道《8月CPI涨2%创12个月新高》。自动化新闻在我国目前还处于探索阶段,没有统一的概念。学者们常用的词汇还包括“算法新闻”“数据新闻”“智能新闻”“机器人新闻”等。根据美国学者马特·卡尔森在2015年对“自动化新闻”的定义,自动化的新闻信息生产过程指的是在没有或者有限的人类干预下,由预先设定的程序将数据转化为新闻文本的自动算法过程。由此观之,自动化新闻的前提是较少或没有人工干预,来源是海量数据,核心是自动算法。
只要数据正确,算法科学且正常运行,自动化新闻的生产就能够避免出现诸如拼写错误、计算错误、事实要素不全等差错,与记者相比,更能够保障新闻信息的准确性。与记者报道相比,在基础数据和算法正确客观的情况下,自动化新闻更加客观可信。现在的自动化新闻主要应用的是数据挖掘和人工智能技术,囿于目前的技术水平,主要限制在以结构化数据为基础的新闻稿。随着技术升级,结构化和非结构化数据信息都可以成为素材,创作出内容更丰富、逻辑更合理,更有人情味的、高质量的新闻报道只是时间问题。
则可能引发媒体裁员越来越多,以及新闻写作的商品化。在未来的新闻行业里,记者和人工智能形成“人机联姻”的生产模式,算法用于分析数据、发现有趣的故事并提供初稿。随后,记者将通过深入分析、采访重要人物以及幕后故事完善报道。此外,对于那些仅仅只报道常规性内容的记者,自动化新闻凭借快速、准确的优点,可能会取代他们的地位,但自动化新闻建立在算法的基础上,对于开发新的新闻写作算法同样需要人力资源,从这一方面看,自动化新闻软件在取代一部分新闻记者的工作的同时,也会产生一些新的职业岗位,记者将在新闻生产过程中扮演新的角色。
尽管受众无法辨别人工写作的内容和软件写作的内容,但受众依然关心撰稿软件的写作质量如何,与人工写作相比会有多大的区别。有研究显示,尽管撰稿软件生产的内容是描述性的、乏味的,但同时也被认为是客观的。人工写作在内容的清晰易读上具有优势,但在可信度、信息量和客观性方面比不上撰稿软件。机器算法的透明度也是受众关注的问题,包括自动化新闻算法的目标和意图是什么,谁开发和控制这些算法,谁对这些内容负责,最终产品在发表前是否有人工编辑审阅等。因此,媒体首先需要更好地了解受众对算法透明性的要求,以及如何将公开的信息用于公众利益。其次,
“算法”只提供受众喜欢阅读或认同的信息内容,导致个人消费越来越多的同类信息,以至个体受众不太可能阅读到与其意见相左的信息或观点,社会上不同声音之间的沟通交流日趋减少,社会言论也越来越单一。“算法”让“过滤气泡”现象更加严重,给社会舆论的健康形成带来风险。因此,新闻媒体在憧憬自动化新闻为自身的发展带来转机的同时,也要时刻提醒自己,不能置受众于信息和交流的孤岛之中,而要多渠道获取和发布信息,帮助受众跳出“过滤气泡”的禁锢,营造健康、多元的社会舆论环境。五、自动化新闻的失范问题
算法在实践中出现的偏差如算法歧视、大数据杀熟、价值偏向等现象已上升为公共议题引发大众的“算法焦虑”。人民日报曾在其移动客户端7.0版本中推出主流推荐算法系统,核心理念为用主流价值舒缓算法焦虑,建设正能量的舆论生态。此外,可探索将道德法律规范编写成代码嵌入自动化写作程序中,利用机器的自我学习提高人工智能水平,以使机器自动识别违反法律道德规范的内容。也可建立记者个人写作数据库,通过机器学习,模拟记者写作习惯,增强人文关怀。总之,要严格把控内容质量,反思流量焦虑,实现智能驱动。
在元宇宙时代,元宇宙信息生态有赖于高效的内容生产机制,而AIGC能够通过算法训练做到根据用户行为与反馈进行实时生产信息内容,极大提升内容生产效率,且通过大量优质信息的生产维护元宇宙的信息生态。与此同时,由于元宇宙时代内容需求的增大,PGC与UGC生产效率不足以满足这一需求,能够低成本、高效率进行多样化内容生产的AIGC将会成为主流生产方式,而AIGC技术与数字孪生的高度适配也会使得AIGC成为元宇宙信息生态的主要组成。因此,AIGC将会成为元宇宙时代内容生产的关键底层技术。
从用户角度看,基于元宇宙内容生态的数量高饱和、信息低密度特征,用户更加追求多样化、定制化的信息服务,并且出于对数字身份认同的高度需要,更希望获得自由表达的空间与能力。AIGC技术不仅能作为底层技术为元宇宙生态提供自动化内容生成,丰富元宇宙内容生态,而且能赋权用户对AIGC进行个性化微调,从而提供定制化信息服务,还能辅助用户进行内容创作,降低内容创作门槛,帮助更多普通用户进行自我表达,扩大内容规模的同时促进用户身份转型。
在商业要素中,用户正在成为模型发展与应用的主力。开源模式正在成为AIGC发展的“催化剂”。开源模式的核心在于撬动用户力量,通过与真实用户的交互为AI模型提供训练数据,并借助用户反馈对模型进行优化与微调,同时也满足了用户的信息交流与内容创作需求,实现研发与应用的双赢。根据用户需求的差异性与应用市场的细分化,未来AIGC的应用场景将会更加分众化,基于特定群体提供定制化的AIGC服务,同时也为部分群体开放模型微调功能,以激发广大用户的想象力与创造力,进一步丰富现有应用场景。此外,更多元的应用场景也能够提升AIGC的商业价值,从而形成完整的“研发-变现-研发”商业闭环。
。作为AI技术应用的主要分支,聊天机器人经历了从“概念化”到“实体化”再到“商用化”的演进历程。聊天机器人的演进是人工智能技术在近半个世纪以来飞速进步的一个缩影。当前,聊天机器人已经进入了日渐普及的新阶段,开始进入并影响到了人类社会与生活的方方面面。2022年11月30日,由马斯克等人投资创立的Open AI实验室推出了最新版的聊天机器人ChatGPT,全名为“生成型预训练聊天机器人”(Chat Generative Pretrained Transformer)。
在国家层面,ChatGPT在政治安全、意识形态安全、舆论安全、主权安全等方面存在潜在风险。由于ChatGPT通过一对一对话式的信息传播,能够将具有特殊导向性质的信息精准投递给目标用户,从而能够在较短的时间内影响公众的认知,进而引导公共舆论。而舆论安全一旦失控,也将对国家意识形态安全、政治主权安全构成威胁。就目前研究来看,ChatGPT在政治领域并非客观中立,而是存在着一定的政治倾向。ChatGPT可以作为政治宣传的工具,在潜移默化中影响公众的认知、判断和选择,以此推动政治议程和渗透意识形态。
聊天机器人在输出答案时潜在地受到使用英语的美西方国家作者的价值观影响。当全球用户在不知情的自然交流中被灌输政治意识形态时,ChatGPT将成为技术霸权国输出西方意识形态的数字武器,一方面强化了西方价值观隐蔽的支配地位,另一方面对与其对立的党派和国家进行意识形态瓦解和制度破坏,从而达到干涉他国内政的目的。以ChatGPT为代表的聊天机器人将能够对任何东西产生无限的、几乎免费的“虚假观点”,其有潜能将西方计算宣传操纵全球舆论市场的能力提升到一个新的层次和水平上。
首先,为手机等个人设备设置强密码;其次,要及时更新设备操作系统及其他程序来屏蔽更多的安全威胁,在手机等设备上安装杀毒软件也有助于抵御聊天机器人可能生成的在线僵尸程序;再次,要主动学习,提高识别和避免聊天机器人所带来的网络安全攻击的能力,如避免可疑的电子邮件或链接、谨慎在网上分享个人或敏感信息等。此外,用户自身的知法守法意识也要进一步增强,用户有责任确保自己不会以非法、不道德或对他人有害的方式使用ChatGPT。
对于Sora的面世,工信部信息通信经济专家委员会委员、数字经济专家刘兴亮称,这标志着AI技术在内容创作领域的一个新纪元。“通过简短的文本提示或一张静态图片,Sora能够生成持续一分钟左右的1080P高清视频,涵盖多个角色、不同类型的动作和背景细节等,几乎达到了电影级别的逼真程度。这种能力不仅为内容创作者提供了前所未有的工具,使他们能够以更低的成本和更快的速度将创意变为现实,而且为观众带来了更丰富和多样化的视觉体验。技术创新的这一巨大飞跃,预示着AI在未来人类生活的各个方面都将发挥更加重要的作用。”刘兴亮表示。
在舆情分析与内容审核方面,GPT-4o对语义更加深入的了解,以及情绪的感知,使得以往AI在舆情分析和内容审核等方面的局限性,也有了突破的可能性。如舆情分析上,GPT-4o的深入语义理解和情感感知能力使其能够更准确地分析和解读社交媒体上的舆论动向,从而更好地预测事件的发展趋势,为媒体掌握真实舆论趋势,提供科学精准的参考依据。内容审核上,GPT-4o能够更智能的分析文本、图片和视频,以往用户通过平台发布,或是在新闻回复留言中出现的“内涵”语句、高级黑、恶意梗图等传统AI难以识别的内容,有望得到解决,从而更加有效地检测虚假、低俗和其他不适宜发布的信息,这对于维护媒体内容的质量和可靠性意义重大。
(1)私有链模型:单边留存保障私域数据安全作为大模型与用户之间的中转站,私域模型可以实现数据不动模型动,数据可用不可见的单边留存,即个人隐私、商业信息以及军事数据无需上传云端,直接基于私域进行训练。基于私有链的小模型能够结合哈希函数、非对称加密、数字签名等密码学算法对数据进行处理,实现个人及企业、军事等特定机构对于数据的确权。即数据的写入权与读取权都限制在参与者手中,参与者可以决定私域数据是封闭还是对外开放,以及对开放程度进行任意限制。(2)联盟链模型:多元主体信息共享提高运作效率
在计算能力方面,基于边缘模型能够支持各种需要超低时延的创新应用和服务。特定任务无需传回云端直接在边缘本地进行处理,减少由于大量数据传输、计算和存储产生的功耗与延时。此外,边缘模型由服务端生成,可直接在客户端运行,对算法硬件只有临时性需求,一旦生成即可直接在终端运行。作为大模型可扩展性算力,基于端侧能够盘活日益增多的计算资源,提高计算效率的同时提供更好的用户体验。具体表现为在手机、智能家居、机器人等终端应用上内嵌部署边缘模型,实现不联网也能在设备上进行交互式程序应用。
智能传播的核心特点在于人工智能扮演了传播者的角色,跻身于传播者的行列,这一特征被认为构成了对传统传播实践和传播理论的根本挑战,因为传统的传播实践与理论将媒体作为人与人进行信息传播及意义生成的“中介”,但智能传播中智能机器不仅是中介,而且其本身就是传播者,就是人类交流的对象。因此,学者们提出,既有传播理论已不足以解释当下的智能传播实践,需要重新划定传播研究的学科边界、提出新的传播研究范式。正是在这一背景下,“人机传播”(Human Machine Communication,简称HMC)被重新发现出来用于对智能传播中的新现象进行研究和整合,并在2016年的国际传播学会(ICA)上被正式承认。
瓦力悖论探讨了“机器人性”与“人性”之间的互嵌与遮蔽效应。在人类期待中,无论是作为工具的“瓦力”,还是觉醒的“瓦力”,都应该延循人类世界的行为逻辑,“机器人性”始终应与“人性”对齐。这种对智能跃迁的拟人化期待,映射出了一个基本悖论:倘若“瓦力”还是按照人所设定的程序指令演化,那它终究只是一个更高阶、更智能的工具,机器主体性无从谈起;而倘若“瓦力”超越碳基生命逻辑,成为一种全新的硅基物种,人机对齐将不可计算且不可预期。
人们对AIGC的物化,会表现出不同的形式。可以预见以下可能:其一是将AIGC技术收编,使其成为工作中的助手;其二是在AIGC的应用中学习知识;其三是利用AIGC完成一些仅靠自身能力不能完成的创作,特别是在绘画、音乐等需要长时间训练的创作领域;其四是将AIGC工具作为聊天对象,将智能机器作为日常生活的技术伴侣。可以预见的是,大众对AIGC物化的结果,丰富了人们的自我表达与社会互动模式,改变了人们的工作与学习模式。AIGC与日常生活不断融合,人们的思维方式被智能技术思维浸染,行为模式也会越来越多地打上机器的烙印,这也是智能媒介化生存的更深含义。
当下所谓“大数据”并非“全数据”,数据化过程走得过“快”就容易简化掉一些复杂因素,而这些被忽略的“小数据”却很可能导致错误的结论。即使数据源中存在“坏数据”,计算机也会“尽职尽责”地得到一个看起来高度相关且科学的结果。除此以外,看似客观中立的数据实则也暗含先验的价值观念,它们由人收集、受人操控,暗含歧视性和目的性的挑拣。数据并不是既定的,而是被建构的,是对有限信息片段进行的重构和组装,是“去事实化的数据”。
随着技术层面的升级,人工智能在社会层面的应用场景和权力范围也在不断拓展。智能技术更加深入地介入到新闻传播产业链之中,同时也将更多生产环节和细节推入“黑箱”,进入到非专业人士难以破解的领域。帕斯夸尔(Pasquale)认为,如今的我们正生活在一个“黑箱社会”之中,编码规则所体现的价值和特权隐藏在黑箱之中。看似价值中立的人工智能技术实则渗透了特定的价值观和意识形态。当智能技术深入介入新闻传播的全环节、重塑新闻业的整个生态系统之时,其本身暗含的权力关系也参与其中。记者的职权让渡给了技术,传统的“把关人”模式失效,虚假和低俗新闻、信息环境窄化、社会共识消弭、算法偏见歧视等一系列潜在的风险逐渐浮出水面。
进入智能时代,个人信息被结构化为数据形式进行储存、分享和使用,隐私的边界逐渐表征在抽象的数据层面。大量的用户私人信息被糅合在一起成为了公开或半公开的数据库,隐私的数据化使得私人和公开领域的界限较难界定。与此同时,用户在某种程度上被动或主动放弃部分隐私权,平台成为智能社会的“信息受托人”,用户向其坦露隐私信息,却无法监督其具体运作方式。个体失去了对于自己私人领域的控制,隐私边界与隐私权利保护面临着失控甚至崩坏的风险。
平台往往未经许可私自运行后台调用信息,或者通过隐匿的强制性告知,要求只有用户开放收集、存储、分析个人数据的权限,用户才能够正常使用App,这种近乎强制性的方式难谓真正的告知。况且,这些告知条例可读性极差。再加上用户对数据权利的保护意识严重欠缺,平台与用户间存在告知义务与知情权利的失衡,即“知情的鸿沟”。另外,平台要求用户“不同意即退出”,其中暗含同意的裹挟与决定权的失效。在这种情况下,用户被迫将个人数据的所有权免费交给平台,平台与用户之间实际上产生了不对等的数据价值交换。