虛擬助理受訓練資料影響 LLM助對話式AI審查偏見

作者: Saurav Sahay
2025 年 02 月 14 日
想像一下,若是讓一個虛擬助理描述理想中的執行長、醫生或工程師是什麼模樣,它的回應是否會因性別而有所不同?這是應該的嗎?負責任使用人工智慧(AI)的主要挑戰之一,是解決對話式AI系統中的社會偏見和公平性議題。這種模型偏見來自於網路規模的訓練資料可能反映社會對於性別、種族、民族與意識形態的偏見,導致模型輸出強化刻板印象,並且讓特定族群處於劣勢。...
》想看更多內容?快來【免費加入會員】【登入會員】,享受更多閱讀文章的權限喔!
標籤
相關文章

ChatGPT挺進AI 2.0 生成式AI攻克LLM天險

2023 年 04 月 24 日

NVIDIA MLPerf GPT-3 模型訓練效能大增

2023 年 11 月 09 日

軟硬體各提新解方 生成式AI突破運作成本挑戰

2023 年 12 月 11 日

PC生態系龍頭火力全開 AI PC來勢洶洶(1)

2024 年 01 月 04 日

算力/記憶體容量/低功耗技術缺一不可 GAI導入邊緣開發大顯神通(3)

2024 年 06 月 03 日

異質運算實現邊緣LLM CPU/GPU/NPU各有所長

2024 年 06 月 06 日
前一篇
意法半導體監事會將於2025年股東常會提名新成員