研究表明 AI 在處理法律相關任務時存在性別偏見,相比較女性角色,中立或男性角色的工作效率更高。
密歇根大學研究人員通過最新研究,揭示了社會和性別角色對大型語言模型(LLM)的影響。這項研究由來自計算機科學與工程系、社會研究所和信息學院的跨學科團隊進行。
IT之家從報道中獲悉,該研究通過 Flan-T5、LLaMA2 和 OPT-instruct 這三個模型,追蹤了 2457 個問題,觀察其不同性別角色的回答情況。
研究人員納入了 162 種不同的社會角色,涵蓋了一系列社會關系和職業(yè),并測量了每種角色對模型性能的影響。
表現最好的角色是導師、合作伙伴、聊天機器人和人工智能語言模型。
研究還發(fā)現,在提示中指定受眾(如“您正在與一名消防員交談”)的效果最好,其次是角色提示。
這一發(fā)現對人工智能系統的開發(fā)者和用戶都很有價值,用戶可以考慮使用 LLM 的社會背景,可以提高 LLM 的有效性。
研究人員分析了 50 個分為男性、女性或中性的人際角色,發(fā)現中性詞和男性角色比女性角色的模型性能更高。
這一發(fā)現值得重點關注,表明這些人工智能系統對男性角色和性別中性角色的固有偏好高于女性角色。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...