林夏的团队开发了一款AI招聘系统,能自动筛选简历。系统上线后,某科技博主测试发现:它对女性程序员和非名校生有明显偏见。
舆论瞬间爆炸,客户纷纷解约。团队通宵排查,发现训练数据主要来自过去10年某大厂的招聘记录——而那家公司本就存在性别和学历歧视。
他们公开道歉,重做数据集,并邀请第三方审计。半年后,新版系统成为HR行业的公平性标杆。
启示:技术没有善恶,但开发者有责任。
林夏的团队开发了一款AI招聘系统,能自动筛选简历。系统上线后,某科技博主测试发现:它对女性程序员和非名校生有明显偏见。
舆论瞬间爆炸,客户纷纷解约。团队通宵排查,发现训练数据主要来自过去10年某大厂的招聘记录——而那家公司本就存在性别和学历歧视。
他们公开道歉,重做数据集,并邀请第三方审计。半年后,新版系统成为HR行业的公平性标杆。
启示:技术没有善恶,但开发者有责任。