News

Guangdong BAIDU Special Cement Building Materials Co.,Ltd
— 新闻中心 —

全球时报研究所邀请许多专家专注于讨论:如何

[《全球时报》记者Ma Jun的《全球时报》]编辑注:2025被认为是AI应用程序大规模实施的第一年。尽管AI技术带来了革命性的舒适感,但其负面影响也引起了人们的关注。特别是,AI的幻想是SO所谓的“严重废话”问题,将AI应用限制在许多领域,甚至引起人们对社会管理的关注。如何应对AI幻觉带来的挑战?全球时报研究所最近在“全球边境科学技术论坛·探索AI治理和中国解决方案的共识”举行了特别研讨会,并邀请许多行业专家讨论相关主题。 Guni -Guni的问题是AI进化的“胎记”?相关的调查显示,在调查问卷调查中“使用AI应用程序的过程中有哪些已知问题?”,最值得注意的是“不准确的内容或错误信息”,WHICH的成本高达42.2%。 中国信息与通信技术学院的安全兼人工智能学院安全总监Shi Lin引入了行业中提到的Ai ilususion,主要是指大型模型产生的当代内容,这与现实世界或用户投入不一致。从本质上讲,这是诸如大型模型训练设计,数据不足和建筑偏差之类的因素的原因。简单,大型模型的基本原理是基于内源性机制的概率。在生成过程中,倾向于在训练数据中选择EyeAs频率的表达式。因此,作为响应,AI将继续选择具有最高概率的单词。但是,其中一个单词是错误的。 AI不知道哪些是正确或客观的答案,并且不会自行纠正它们,从而导致她的错误扩展。一般而言,AI幻觉可以分为三类:幻觉,即AI,对公众发表最多的评论,做出虚假事件,引起不存在的知识以及违反常识等的信息;忠实的幻觉主要是由于当前大型模型的注意机制,该模型无法保持超长文本的一致性,并显示了上下文矛盾。例如,AI首先证明了一种观点,然后被测试是相同的观点,从而导致上升之间不一致的现象。在多模式应用中,AI还具有跨模式的不一致之处,例如发生文学和天才的图片时,可能会发生幻觉。 Shi Lin强调,大型模型的当前体系结构不能完全消除幻想,只能通过各种技术手段来缓解。会议上的另一位专家说,公众不需要害怕AI的幻觉。我们可以将幻觉理解为生成AI进化的“胎记”。大语言模型基于变压器体系结构。核心将使模型动态地关注关键词 - 不,i -scan同时通过pansin的机制同时以完整句子的形式来确定所有单词,建立上下文关系的逻辑,然后在单词位置之后注意一个单词,并在使结果后输出结果,使其在整个图层中输出。更清楚地说,模型就像支持文本测试的学生。在遇到他不知道的问题时,他依靠协会,将无法将其交给空白纸。通过这种方式,通过技术模型 +世代的限制,“幻觉”无法完全避免。他认为具有外部视角是红色的,中等程度的人工智能自由可以称为明亮的幻想,这是一个重新要求大型模型维持“创造力”的价格。 “例如,绘画是对人的记忆或形象的创造性重建,AI的幻觉可能是继续实现其能力突破的内源力量。”北京法律学院医生的主管Wu Shenkuo在北京正常大学和中国互联网协会副主任的主管中,也相信AI的安全性,使AI的安全性信任,也可以信任。授权,包括对意识形态安全的风险,并不能否认所有积极的价值观,而产生幻觉的过程是偶然的,也可以带来新的创造力,这在艺术和科学研究等领域非常重要。 - 这是惊人的。施加要求,例如发布医疗处方,司法判断,建议股票,开发生产代码等,严格限制了AI的使用。有些人想REND认为,AI产生的大量幻觉内容将在互联网上倒入,并将以大型型号作为培训材料学习,从而导致更严重的幻觉,从而形成恶性循环,并使低质量的互联网内容的增长恶化。 Tsinghua大学公共管理学院院长,科学与技术发展与治理研究中心主任朱·舒恩(Zhu Xufeng)认为,讨论对社会错觉的损害并不取决于AI本身,而是应用程序场景。如果AI仅被用作聊天工具,那么幻觉就不会对来自世界各地的朋友的幻觉产生严重的影响,而骄傲是无害的。但是,如果AI产生的错误结果在法院判决和其他情况下使用,则显然是有害的。有了用于医学诊断的AI,幻觉会导致严重的医疗事故。朱Xufeng说了这个问题AI幻觉的LEM主要集中在文本内容上,但是由于诸如DeepSeek之类的大型模型已经流行,因此在许多其他情况下使用了AI,而形成的不是文本,而是来自软件,算法,程序甚至决策的信号,影响更大。例如,许多品牌的自动驾驶技术现在使用生成人工智能技术将监测习性人与周围场景的大量数据结合在一起,并使用人工智能算法来制定自主驾驶或紧急避免决策。如果此时发生人工智力的幻想,可能会导致交通事故。这些也是AI幻觉的后果,造成的损害显然是真实的。因此,在谈论AI幻觉时,我们不能离开现场。中国政治科学法治法治研究所教授张·林汉(Zhang Linghan)H级人工智能咨询局指出,大型模型幻觉的问题引起了人们的关注,主要是因为人们将其应用于不适当的地方。公众对其内容以及MGA大型模型发展的运作有多余的幻想。当形成的内容还不够时,它将AI归咎于问题。实际上,人们不应完全依靠人为的巨大智能模型。在文化和创意产业领域,AI幻觉的影响相对较小,因为它取决于丰富的想象力。但是,应超高级行业的准确性要求,AI的幻觉会导致严重的问题。例如,在2023年2月,纽约南部地区的联邦法院发现,美国律师提交的法律文件引用了Chatgpt在Defe提交的法律文件上产生的六个虚假法学。恩丹的律师。虚构案件包括一个完整的案件名称,法官的案件和意见,甚至模仿了美国最高法院的法学风格。它的虚构能力严重干扰了司法程序。吴森科说,人工智能的幻觉具有不可预测的特性。在数据安全,供应链安全,自动决策和意识形态领域,将进一步扩大或刺激风险。从数据安全的角度来看,AI谨慎期间生成的新数据可以成为下一个培训数据的一部分。从供应链安全的角度来看,这种积累和叠加的幻觉可用性将激发安全供应安全风险,这是一个隐藏的问题。此外,相关的外国研究非常关注对模型的大型歧视和倾斜。他们经常谈论事实幻觉可能会导致意识形态安全问题,并建议需要进行远期计划,预防和预防风险。 Shi Lin说,大型模型产生的内容继续出现在Internet上,并且可能包含幻觉产生的数据。如果这些数据被颠倒用于培训,它可能会污染与大型模型培训有关的数据集,并会给大型模型进一步培训带来一些障碍。同时,AI的幻觉还可以限制现有技术产品的功能。幻觉模型下还存在风险和隐藏的风险,这将导致我们的研发,维修成本将继续增加。 Shi Lin还认为,Information的污染问题互联网将在一定程度上影响国家安全,因为许多人使用AI技术专门吸引了互联网流量。这些内容中的大多数可能是低质量的,也可能是由幻觉造成的错误,包括“ Lin Daiyu正在哭泣的柳树”之类的内容。这些内容没有直接损害,但是它们在互联网上长期存在,可能会给下一代带来认知偏见。朱舒夫强调说,幻觉不是人工智能期间存在的产物。它从远古时代就已经存在,应该在辩证,更全面地观察。对于AI的幻觉,我们不能因为扼杀而放弃。我们必须继续加强更正和管理机制,以使AI更好地为人们服务。 Ang Painstrounductucting高质量的数据集和风险评分专家的探索认为,从AI幻觉原则的角度来看,纠正或减少幻觉的一种基本方法是在大型模型培训中使用高质量的培训数据。该培训的质量数据包括民间和综合数据。但是,近年来,行业专家继续警告说,在快速发展中大型模型的操作,可用于训练大型型号的数据存在疲劳问题。一些会议专家说,今天所谓的培训数据实际上是指可以在Internet上披露和收集的数据,主要是从顶级互联网域名上数十万个网站收集公共信息。但是,这些网站的信息语料库是低质量数据,其中包含大量错误,广告和其他内容,这需要大量的努力来清除它。源自专业书籍或出版物的高质量数据,但由于版权问题,这些数据不是在线的。如今,大型制造商还注意到了互联网数据的质量,并注意选择高质量数据的质量。此外,在许多特定情况下,合成数据还用于训练大型模型,例如训练机器人捕获球。互联网上没有可用的数据,但是通过开发模拟气氛,大型模型可以在其中采取各种动作,并根据物理策略生成相关数据。这称为大型模型使用的合成数据。 Shi Lin认为,对于大型模型本身,可以使用增强抹布的方法,可以引入或可能引起知识图,并且可以使用验证方法来减轻AI的幻觉并在一定程度上提高输出可靠性。介绍高质量的数据集,添加正宗的插件验证,然后通过网络传递实时验证。同时,在行业一级,建立了幻觉的审查系统,并且首选低幻觉的模型作为基础。建立回避和控制幻觉的联合机制;建立一个谣言的网站,以摆脱负面示例。会议专家建议,从合规级别,幻觉的层次结构分类可以被剥夺红色,例如可能导致灾难,敏感并涉及重大安全风险的幻觉水平,应采取措施,以防止重大的经济违规,社会和公共原因。 Wu Shenkuo建议,开发内容徽标的管理应一方面预测风险,及时对其进行分类和总结,并添加技能;另一方面,介绍必要的机制,例如创建白名单知识库,并建立安全,令人信服,动态的资源和数据知识库。同时,通过特殊操作,定期清洁幻觉,检查和检查跨境数据等。在与大专业相关的金融保健和医疗等领域利益,最终评估和决策应由人控制,而不是赋予AI的全部权力。与其专注于控制AI幻觉,不如在严格,准确的行业中使用AI以及是否应绝对信任AI。目前,技术水平不能完全消除AI的幻想。张·林汉(Zhang Linghan)表示,必须在人和机器产生的内容之间提高管理水平,并加强内容控制,严格的控制和评估。目前,监管当局要求识别人工智能产生的合成内容。尽管它不参与有关内容质量的特定判断,但很明显可以指出哪些内容由人工智能形成。张·林汉(Zhang Linghan)强调,中国领导了人工智能内容领域。 “关于互联网Informa合成的深入管理的规定“在2023年1月10日举行的“举办人造智力”作为强制性法规的确认。加利福尼亚州的《加利福尼亚人工智能透明法》将于2026年1月1日生效,欧盟artip artip身份身份义务义务法案将在2026年8月2日在全球范围内正式实施。
Tel
Mail
Map
Share
Contact