据《大核AI网》援引国际电联消息,来自全球150多个国家的代表今日在日内瓦签署了首个具有法律约束力的《全球AI安全与伦理公约》。该公约明确划定了AI开发的“禁区”,包括严禁开发具有自主决策权的致命性武器系统、严禁未经授权的大规模生物识别监控,以及严禁利用AI算法进行有组织的社会信用欺诈。
公约还规定,所有具有“通用智能”潜力的模型在发布前必须经过独立的第三方安全评估。针对目前日益严重的AI失业问题,公约要求各国设立“AI转型转型基金”,由AI获利企业出资,用于受影响劳动者的再培训。这一举措标志着AI行业正式告别了“野蛮生长”时代,进入全球协同监管的新阶段。尽管技术派担心监管会抑制创新,但正如公约起草人所言:“没有制动系统的赛车跑得再快也是危险的,规则是为了让AI更安全地服务于全人类。”

