虛擬助理受訓練資料影響 LLM助對話式AI審查偏見

想像一下,若是讓一個虛擬助理描述理想中的執行長、醫生或工程師是什麼模樣,它的回應是否會因性別而有所不同?這是應該的嗎?負責任使用人工智慧(AI)的主要挑戰之一,是解決對話式AI系統中的社會偏見和公平性議題。這種模型偏見來自於網路規模的訓練資料可能反映社會對於性別、種族、民族與意識形態的偏見,導致模型輸出強化刻板印象,並且讓特定族群處於劣勢。...
2025 年 02 月 14 日