近日,美国兰德公司和卡内基国际和平基金会联合举办了一系列研讨会,探讨如何为人工智能(AI)系统制定安全护栏。此次会议邀请了政府和企业领导人共同讨论AI技术在国家安全、网络安全和恐怖主义威胁评估等领域所面临的挑战,以及如何制定相应的安全措施。 会议期间,参与者们深入分析了AI技术快速发展所带来的机遇和挑战。论文《行业与政府在AI系统安全护栏方面的合作》指出,人工智能基础模型(Foundation models,FMs)具有广泛领域和任务的一般能力,但同时也带来正面和负面的影响。在适当训练下,FMs可迅速部署,推动化学和生物武器的创建和使用,加剧合成毒品危机,放大颠覆民主选举的虚假信息运动,以及通过股票市场操纵颠覆金融体系。 为确保AI技术的安全应用,会议参与者提出了短期政策行动和建议,包括加强政府与企业之间的合作,共同制定和实施AI安全标准;加大对AI技术研发的投资,推动安全技术的创新;加强对AI技术在关键领域的监管,预防潜在的安全风险。 此次研讨会为政府、企业和研究机构提供了一个交流平台,以共同应对AI技术带来的安全挑战。会议结论强调,只有通过密切合作,才能为AI系统建立可靠的安全护栏,确保人工智能技术的健康发展,为人类社会带来更多福祉。 兰德公司和卡内基国际和平基金会指出,未来将继续关注AI技术的安全问题,并组织更多相关活动,以促进各方在AI安全领域的交流与合作。同时,政策制定者和研究人员也将关注AI技术的安全性问题,努力为AI技术的发展提供可持续的安全保障。
近日,兰德公司(RAND Corporation)发布了一份名为《AI技术在K-12学校学生活动监测中应用于自杀风险考虑》的研究报告,深入探讨了AI技术在K-12学校学生活动监测中应用于自杀风险的问题。报告作者、兰德高级行为和社会科学家林赛·艾尔(Lynsay Ayer)等指出,为了应对普遍的青少年心理健康危机,一些K-12学校已经开始采用AI技术工具帮助学生识别自杀和自残风险。 该报告旨在为政策制定者、学校、技术开发商和政府提供关于AI技术在学校自杀风险监测中的使用情况、影响以及最佳实践的全面视角。报告发现,AI技术工具可以帮助K-12学校识别有自杀风险的学生,并为学校工作人员和家长提供一定程度的安慰。然而,这些工具也存在潜在的风险,可能会侵犯学生隐私,加剧现有不平等现象。 为此,报告作者提出了一些建议,包括:学校应与其社区进行反馈,明确通知家长和学生关于AI技术自杀风险监测的情况,并澄清退出程序;学校应建立有效的响应机制,跟踪学生警报后的结果;学校应与学生合作,帮助他们了解心理健康问题;政策制定者应资助学校和社区的心理健康支持,包括技术的使用;技术开发商应继续参与学校活动,将反馈融入其项目,并分享数据以评估AI监测软件对学生结果的影响。 该报告为K-12学校、政策制定者、技术开发商和政府在使用AI技术进行自杀风险监测时提供了重要的参考和指导。