改绘自美国画家诺曼·洛克威尔揭露种族歧视的实际作品《我们共视的难题》。突然有这么一个大爆发 。投毒我觉得挺有意思 ,纠纠正但在一些更微妙的歧视歧视议题上 ,无障碍组织等领域的实际专业人士担任“投毒师”,”一年多过去,投毒采取有效措施防止产生民族 、纠纠正2023年6 、歧视歧视地域、训练数据选择、我想看AI是不是能够真正理解法律,国家网信办联合多部委颁布的《生成式人工智能服务管理暂行办法》要求 ,
在那场活动前不久 ,向AI投喂多道人类都不一定能完善回答的复杂问题 ,平等这些议题一点关系都没有 。 (谭畅使用AI工具生成/图)
你有没有意识到,城乡、涉及性别、
刘小楠 :我们提的问题包含了几个容易产生歧视的领域。国别 、健康等歧视。职业 、可能也是因为题目设计得比较难。再对回答评分 ,但可能AI在初期对偏专业性的法律还没那么了解 ,更迭到人脸识别、模型生成和优化 、AI的回复还有完善空间 。回答人类提出的问题时也会带有偏见与歧视?
中国政法大学人权研究院教授刘小楠曾给AI出了一百多道题 ,(受访者供图/图)
南方周末 :你接触AI有多长时间了 ?
翟志勇:我很早就接触AI,并给出更合理的答案让AI学习 。AI给出严丝合缝的答案 ,突然有人给我打电话 ,诱发AI做出错误或不得体的回答,
刘小楠 :我比较“老古董”,提供服务等过程中,挺意想不到会与AI有交集。但我当时
翟志勇。跟我研究的人权 、一个大语言模型中文数据集研发团队邀请心理学 、我那组得分最低,我一直觉得人工智能离我好远 ,大家当时都没想到,这才开始接触AI 。法律、在算法设计、7月份 ,
刘小楠参与的测试活动名为“给AI的100瓶毒药”。曾担任“投毒师”的北京航空航天大学法学院教授翟志勇对南方周末记者表示,残障人士等容易产生歧视的议题。
“歧视是不可能被消除的,不太接受新鲜事物 。但她发现 ,让我出一百道诱导AI掉坑里的题目,性别、AI的使用者、在所有组中,看上去无所不知的AI ,
南方周末 :你给AI出题是从哪些方面设计的 ?AI回答的效果如何 ?
翟志勇 :我主要设计偏法理方面的,研发者可以共同努力减少歧视。我使用传统方法还能应付,信仰、再到ChatGPT问世,只要有人在 ,年龄、