11月21日晚,百度发布2023年第三季度财报,宣布正式成立科技伦理委员会,由百度集团资深副总裁、CEO助理李震宇出任委员会主席。
据了解,该委员会旨在健全科技伦理条例,制定并完善科技伦理委员会工作流程、管理制度和研发规范,推动集团治理体系升级,尤其在人工智能、生成式人工智能领域伦理治理中做出积极探索,把好伦理“方向盘”。
李震宇表示:“百度科技伦理委员会的设立,能降低AI算法的「黑箱风险」,实现更有预见性的 AI 治理。积极倡导「以人为本、智能向善」原则,确保人工智能安全、可靠、可控,守好科技创新的安全底线,才能勇闯技术‘无人区’。”
百度科技伦理委员会同步推出六项举措,向社会各界发起倡议,希望共同建立和完善AI伦理的各项机制措施。
第一,管控伦理风险,促进创新发展。既要坚持创新,也要把控风险。一方面,加强安全评估和管控能力,确保AI安全可控;另一方面,同步建立容错、纠错机制,努力实现规范与发展的动态平衡,停止创新才是人类社会最大的风险;
第二,对齐人机价值,确保技术为人。让AI与人类价值观对齐,构建和谐共生的新型人机关系,确保AI永远服务于人类,帮助人类追求自由与幸福、不断获得自我成长。
第三,保护个人隐私,保障数据安全。不断提升隐私保护技术,在AI开发及使用过程中,做到严格保护个人隐私,确保数据安全,将数据泄露和滥用等风险降至最低;
第四,扩大能力开放,致力技术普惠。开放百度AI能力,降低创新和使用门槛,关注社会弱势群体,消除技术鸿沟;减少算法歧视和偏见,避免社会不平等问题加剧,确保人人享受技术红利。
第五,加强意识培养,敬畏伦理道德。通过教育和培训,让每一个AI从业者都深刻认识到伦理的重要性,营造尊重道德伦理的创新氛围,增强AI技术和应用开发者对伦理道德的敬畏。
第六,加强交流合作,实现多元共治。AI伦理挑战是全人类共同面对的问题,需要各方从人类命运共同体的高度,实现产学研用和国内国外通力合作,为人工智能伦理治理,贡献中国智慧。
除此之外,百度科技伦理委员会将凝聚各领域专家力量,引入权威外部视角和监督,通过专项研讨和评估等方式,确保AI技术和应用符合法律标准和伦理规范,切实履行科技伦理管理主体责任,构筑我国人工智能发展的竞争优势,助力实现高水平科技自立自强。
近几年,新一轮科技革命和产业变革的加速演进,尤其是AI大模型的出现和迅速崛起,随之产生的伦理问题成为全世界面临的共同挑战。如系统失控可能带来的安全风险;个人隐私泄露和数据安全,算法歧视和偏见等,日渐成为各界关注焦点。
作为AI领军企业,百度历来高度重视AI伦理问题。早在2018年,百度创始人、董事长兼CEO李彦宏即提出了AI伦理四原则:AI的最高原则是安全可控;AI 的创新愿景是促进人类更平等地获取技术和能力;AI 的存在价值是教人学习,让人成长,而非超越人、代替人;AI 的终极理想是为人类带来更多自由与可能。同时,李彦宏还表示,人工智能伦理将是未来智能社会的发展基石。
科技伦理委员会的成立,意味着百度不断加强价值观的引领导向与企业历史责任感,积极参与国家伦理治理流程,让科技发展「符合公德和伦理」成为基本要求,为科技创新明确边界,有效防范重大科技伦理风险,进一步打造负责任、可持续的AI。
雷峰网(公众号:雷峰网)
发表评论 取消回复