论生成式人工智能给军队思想政治教育
带来的挑战及应对之策
康斌
【关键词】生成式人工智能|军队思想政治教育|应对之策
习近平主席强调,要高度重视人工智能对教育的深刻影响,积极推动人工智能和教育深入融合。在当今社会,军队思想政治教育与生成式人工智能技术深入融合,这既是着力推进军队思想政治教育变革的选择,也是时代发展的必然趋势。然而,在这一融合过程中,不可避免地带来诸多挑战。而面对这些挑战,亟需我们提供应对之策。
一、生成式人工智能给军队思想政治教育带来的挑战
一是存在政治偏见的风险。在当今信息时代,生成式人工智能凭借其强大的算法和数据处理能力,能够快速生成大量的文本内容。然而,由于算法的设计往往受到开发者的价值观和偏见的影响,以及数据的采集和整理可能存在偏差,这就使得生成的信息有可能带有不恰当的政治倾向,比如OpenAI曾一度警告用户,ChatGPT“会产生带有偏见的内容和指令”。这些错误内容与军队思想政治教育的主要内容严重相悖,会在潜移默化中引导官兵滋生错误的思想观念和价值观念,进而引发官兵思想滑坡、信仰动摇。
二是面临舆论误导的风险。随着生成式人工智能的广泛应用,其生成的信息存在因数据造假而导致网络信息良莠不齐。比如ChatGPT出现过“一本正经的胡说八道”。所以,必须重点警惕和留意西方敌对势力,他们凭借在模型训练方面的技术优势,利用生成式人工智能蓄意制造涉军敏感话题,引发负面舆情,甚至直接传播虚假信息,以实现对官兵的认知渗透和操控,可能会使官兵产生困惑和迷茫,甚至对我军的光荣传统和使命任务产生怀疑。
三是呈现信息泄露的隐患。在与生成式人工智能交互过程中,不可避免地会涉及到数据的传输和存储。然而,由于网络安全的不确定性,这些数据可能存在被窃取或泄露的隐患。对于军队来说,信息安全是生命线。军队的机密信息一旦泄露,不仅会危及军队的安全和利益,还可能对国家的安全造成严重威胁。例如,在与生成式人工智能进行问答交流时,官兵可能会无意中透露一些敏感信息,而这些信息如果被不法分子获取,就可能被用于进行网络攻击或情报窃取。
四是遭遇网络攻击的风险。作为新兴技术,生成式人工智能本身就存在着一定的安全漏洞,容易成为网络攻击的目标。一旦军队的生成式人工智能系统遭受攻击,可能会导致系统瘫痪、数据丢失或被篡改等严重后果,某些“心怀不轨”的不良价值观主体,可借机凭借人工智能对官兵的浏览偏好、搜索轨迹等加以分析,从而恶意引导官兵进行网络信息搜索,运用新媒体和信息化手段对官兵思想实施侵蚀与渗透,传播非主流价值观念,给军队“智能思政”工作带来更为严峻的挑战。
二、破解生成式人工智能给军队思想政治教育带来挑战的对策
一是强化政治教员的能力素质。政治教员作为军队思想政治教育的组织者和实施者,其能力素质的强弱直接影响着教育的实效。在生成式人工智能时代,教育教员要以“时不我待”的主动意识,学习生成式人工智能的相关知识,了解其工作原理和应用场景。只有深入了解生成式人工智能的本质,才能更好地运用这一技术为开展思想政治教育服务。首先,政治教员者可以通过邀请专家学者授课的方式,系统地学习生成式人工智能的技术特点、应用方法和发展趋势,不断提升自身运用新技术的能力。同时,还可以开展交流活动,让政治教员之间分享经验,共同探讨如何利用生成式人工智能优化教育内容呈现、增强互动性。其次,教育教员要掌握如何利用生成式人工智能工具引导官兵在信息海洋中明辨是非。在海量的信息面前,官兵们很容易迷失方向,被虚假信息所误导。教育者可以利用生成式人工智能生成的案例、故事等教育素材,引导官兵分析其中的真假、善恶、美丑,培养他们的批判性思维和鉴别能力。
二是强化教育内容的审核与管理。生成式人工智能虽然能够提供给政治教员大量的教育素材,但这些素材的质量和准确性却难以保证。因此,建立严格的内容审核机制,对生成式人工智能生成的教育素材进行筛选和把关,显得尤为重要。一方面要确保教育内容符合军队思想政治教育的要求,积极向上、准确无误。军队思想政治教育具有鲜明的政治性、思想性和导向性,任何教育内容都必须符合党的路线方针政策、符合军队建设的实际、符合官兵的思想需求。在审核教育素材时,要严格按照这些要求进行筛选,坚决杜绝不良信息和错误观念混入其中。另一方面要及时更新审核标准,以适应技术的不断发展。生成式人工智能技术在不断进步,其生成的教育素材也在不断变化。因此,审核标准也需要与时俱进,不断调整和完善。要密切关注技术的发展动态,及时了解新出现的问题和风险,制定相应的审核标准和措施,确保教育内容的质量和安全。
三是注重官兵的媒介素养培养。在生成式人工智能时代,官兵们面临着海量的信息和多样化的媒介渠道,提高他们的媒介素养显得尤为迫切。媒介素养是指人们在面对各种媒介信息时所表现出的选择、理解、质疑、评估、创造和生产能力。可以通过军网“MOOC”平台或“学习强军APP”开展媒介素养教育课程,可以提高官兵对生成式人工智能生成内容的辨别能力,培养他们的理性思维和批判精神。首先,要教导官兵如何识别虚假信息、防范信息误导。可以通过案例分析、专题讲座等形式,让官兵们了解虚假信息的常见形式、传播途径和危害,掌握识别虚假信息的方法和技巧。例如,教会官兵们查看信息来源、分析信息内容的逻辑性、对比不同渠道的信息等,从而提高他们对虚假信息的辨别能力。其次,通过教育,培养官兵的理性思维和批判精神。在面对海量信息时,官兵们不能盲目相信和跟风,而要保持理性思考,对信息进行分析和判断。可以通过开展讨论、辩论等活动,让官兵们在交流中锻炼自己的思维能力,学会从不同角度看待问题,提高批判精神。同时,还要引导官兵树立正确的价值观和世界观,增强对不良信息的免疫力。
四是建立风险预警机制。生成式人工智能应用于军队思想政治教育的过程中,可能会出现各种潜在风险。为了及时发现和应对这些风险,必须建立风险预警机制。首先,要密切关注生成式人工智能在军队“智能思政”建设中的应用动态。通过建立监测系统、开展调研等方式,及时了解技术的发展趋势、应用情况和存在的问题。同时,要有一支懂技术、通信息、精教育、善管理,能熟悉人工智能技术操作和应用的人才队伍,又要有一支高水平、专业化的信息管理队伍来推动智能技术研发和智能系统维护。其次,要建立风险预警指标体系。根据生成式人工智能的技术特点和军队思想政治教育的实际需求,制定一套科学合理的风险预警指标体系。这些指标可以包括信息准确性、内容安全性、技术稳定性等方面,通过对这些指标的监测和分析,及时发现潜在风险。最后,要制定相应的应急预案。在风险出现时,能够迅速采取措施,将不良影响降至最低。应急预案要明确责任分工、处置流程和应对措施,确保在紧急情况下能够快速、有效地应对风险。
[1]王延川,赵靖.生成式人工智能诱发意识形态风险的逻辑机理及其应对策略[J].河南师范大学学报(哲学社会科学版),2023,50(4):1-7.
[2]汪丽,曾宪亢,王大军.生成式人工智能对军队思想政治教育的影响及对策[J].海军学术研究,2024,(06):55-60.
[3]张吉豫.打破人工智能算法黑箱[EB/OL].
本期审核:林颖希
排版设计:周凯凯
文章来源:《中国军转民》杂志
合作邮箱:hezuo@chnmil.cn
投稿邮箱:tougao@chnmil.cn