新华社观点·亚洲的BOAO论坛|在AI期间,如何保持
- 编辑:admin -新华社观点·亚洲的BOAO论坛|在AI期间,如何保持
Mula sa“ AI儿科医生” sa isang yugto ng pagsabog na pag -unlad,在pagbabago的pumapasok sa libu -libong mga sambahayan,pagbabago ng libu -libong libong libong mga industriya sa不间断的速度。当AI构成我们熟悉的世界时,我们如何应对与之相关的机遇和挑战?如何平衡应用和管理?在待持有的亚洲BOAO论坛的2025年会议中,来自国内外的专家,学者和公司代表就相关主题进行了激烈的讨论。在目前,人工智能适应AI的“新正常”,加速了成千上万行业的加强以及教育,医疗保健,政府工作和芬兰等学业的进入CES。人工智能感觉到的越来越舒适。从非管理机器人到脑部计算机界面,大众对AI应用的期望更高。毕马威(KPMG China)的首席技术官兼创新合作伙伴刘·江(Liu Jiangang)表示,人工智能将来不再是一个概念。对于许多公司而言,使用人工智能来加速决策,创新产品和优化运营不再是许多选择问题,而是一个答案问题。数据表明,2024年,我的国家完成了备案,并启动了生成人工智能模型的制造,以提供服务,拥有超过6亿的注册用户;工业机器人的气箱容量成本超过世界一半。 3月26日,BOAO亚洲论坛的来宾讨论了“在AI应用程序中准备核心竞争力的问题”。新华社新闻社记者Yang Guanyu在政府的工作报告中摄继续促进“人工智能 +”动作。国务院研究办公室副主任陈·长山(Chen Changsheng)表示,今年将进行大规模应用新技术,新产品和新情况的示威行动,并在确保安全性的奖励下,将加速人工智能在许多情况下的应用,例如低位级经济体经济学,教育和培训医疗服务。中兴公司董事长李·齐克斯(Li Zixue)表示,当前人工智能的一般目标应用正在加速,但是仍然存在一些问题,例如难以使用,难以使用,并且不在行业中使用。我们应该在一般主要模型中的独家领域中加强定制和深度培训,结合不同行业的应用程序需求,以便大型模型可以成为了解该行业的“熟练工人”,并促进Artifici的真正组合Al Intelligence和Industry。有些人认为,将来可能会有自然人,机器人和数字人物与之联系的社会形式。 BOAO的2025年年度报告在亚洲经济前景和亚洲融合论坛上已被教导,在人工智能技术的广泛应用中,某些行业的工作受到了严重影响。 “改变某些工作是不可避免的技术变革过程。当他们受到影响时,一些工作也将出现。” Vivo的高级副总裁兼首席技术官Shi Yujian说,每个人都应该通过研究和适应AI的变化来继续提高其全面质量。许多客人还说,除了提高教育和教育技能以及知识和技能的技巧,知识的技能,知识的技能,知识和技能的艺术和知识技能以及知识和知识的知识和技能的技能电子和技能的知识和技能在艺术方面的知识和技能以及知识的技能,知识的技能,知识和技能的艺术和技能,知识和技能在知识和技能方面的知识,技能和技能和技能的艺术和技能,知识和技能的知识和技能,艺术和技能的艺术和技能以及知识和技能的艺术和技能,在知识的艺术和技能中,应考虑更高的社会保障政策,以增强较高的社会保障范围。促销和应用。在社交平台上,许多人抱怨AI认真地说胡说八道。 Tsinghua University公共行政学院院长朱Xufeng说,这是AI的幻想,这是指大型模型有时会混淆事实和小说的事实,这将错误的细节置于似乎是事实的句子中。 AI小说会引起误导并可能造成严重后果,尤其是在地区例如医疗保健,金融和法律,对真实性和准确性需要很高的要求。 “技术暂时超出了年龄,由于爆炸式增长,我们不在乎它。”朱·X芬说,我们应该增加开发和使用技术,并促进问题的逐步解决方案,例如随着技术的不断改善,AI的幻觉。 AI应用程序期间需要大量数据,并且数据安全和隐私保护吸引了公众的大量关注。许多客人说,实际上,应在特定的应用程序情况下收集哪些数据,如何防止敏感信息数据的泄漏等。ShiYujian认为,在AI技术的人群中,企业更依赖于数据。如果未采取相应的安全措施,则可能导致数据泄漏的风险。 “数据必须脱敏或Mayencrypt,以增强交付和存储安全性。”滥用和滥用精神病学是重大风险之一。 PINSTASTATISTIS表明,全球在2024年在全球范围内发生的AI风险事件中有30%以上与使用AI进行深层谎言有关。偶尔会在报纸上看到 - 深入删除名人图像,声音和虚假的宣传甚至欺诈行为。 3月26日,ASIA BOAO论坛的2025年会议举行了“ AI:如何平衡申请和管理”中的子教育。新华社的照片记者pu Xiaoxu许多客人说,AI深处的宽恕现象正在出现,主要是因为欺诈的成本很低,调查成本和执法率很高。相关法律和法规应改善滥用AI的滥用和滥用,并应增加罚款。 AI中出现道德和道德争议。 Si Zeng Yi,自动化研究所的研究员,中国科学院,联合国Artifici高级咨询局的专家Al Intelligence认为,道德安全对于人工智能模型的发展应该是“基因”。如何在追求技术发展的同时遵守道德底线是一个重要的问题,需要共同加入。 “人工智能和安全的发展并非都被迫。” Zeng Yi表示,最新研究表明,它可以通过科学方法提高安全能力,而几乎不会影响人工大型模型的解决方案功能。让管理层保留技术的速度。如何保持AI技术速度的管理?会议上的嘉宾说,AI管理是一个库姆普罗普的全球问题,需要参考世界,以在各个领域互相促进合作。目前,主要经济体正在加速法律立法程序。在AI管理中,中国坚持协调发展和安全,相关部门发布了许多我的管理指南文件。其中,“合成内容智能内容的人为生成很快就集中在解决诸如“形成”,“形成”,“形成”和“形成的地方”之类的问题,并促进了对世代相传的所有链接的全部安全管理。利益相关者,诸如政策制造商,企业家,科学家,科学家等必须通过一定的挑战来确定一个挑战。当人工智能系统带来不良后果时,“ AI医生”的治疗方法需要澄清。 Zeng Yi说。高质量数据是对大型SC的重要支持。AI应用程序的ALE实施,开发完整而成熟的数据市场也非常重要。以色列民主研究所的高级研究员Tehira Schwartz Artschuler认为,应根据实际条件确定满足自己需求的DAT Adminissration计划和满足自己需求的道路。会议上的客人说,随着人工智能时期的临近,我们必须遵守应用与管理之间的平衡,重点对变革和行政管理,以及对全球化和本地化的协调,防止数字部门成为明智的划分,并让AI真正成为促进社会发展的包容性力量。 (记者歌曲Jia,Wang Cunfu,Liu Kaixiong)