自2018年以來,我一直在與人工智慧 (AI) 合作,對於它穩步增長的過程以及周圍的討論,我充滿了興趣。隨著最初的恐懼逐漸減少,關於人工智慧融入日常商業結構的倫理討論開始取而代之。
新的角色需求
未來將需要一系列新的職位來處理倫理、治理和合規性,這些角色對組織將變得非常重要。
AI倫理專家
其中最重要的角色可能是人工智慧倫理專家,他們需要確保自主人工智慧系統符合公平和透明等倫理標準。這個角色將使用專門的工具和框架來有效解決倫理問題,避免潛在的法律或聲譽風險。人類的監督對於確保透明度和負責任的倫理至關重要,以維持數據驅動的決策、智慧和直覺之間的微妙平衡。
其他角色
此外,像是自主人工智慧工作流程設計師、人工智慧互動與整合設計師等角色,將確保人工智慧在生態系統中無縫整合,並優先考慮透明度、倫理考量和適應性。還需要一位人工智慧監督者,來監控整個自主人工智慧系統的代理和仲裁者,這些都是人工智慧的決策元素。
聯合國的原則
對於任何想要將人工智慧整合到組織中並確保技術負責任地引入和維護的人,我建議參考聯合國的原則。這十條原則是聯合國在2022年針對人工智慧日益增長所帶來的倫理挑戰而制定的。
這十條原則是什麼?
第一,無害原則
作為一種具有自主元素的技術,第一條原則專注於以避免對社會、文化、經濟、自然或政治環境造成負面影響的方式部署人工智慧系統。人工智慧的生命周期應設計為尊重和保護人權和自由,並應監控系統以確保這一情況得以維持,並且不會造成長期損害。
避免為了人工智慧而使用人工智慧
確保使用人工智慧是有理由的、適當的且不過度。人們常常會對這項令人興奮的技術過於熱衷,但這需要與人類的需求和目標保持平衡,並且絕不能以損害人類尊嚴為代價。
安全與保障
在人工智慧系統的整個生命周期中,應識別、解決和減輕安全和保障風險。對於人工智慧,應該應用與其他業務領域相同的健康和安全框架。
平等
同樣,人工智慧的部署應旨在確保利益、風險和成本的公平分配,並防止任何形式的偏見、欺騙、歧視和污名化。
可持續性
人工智慧應旨在促進環境、經濟和社會的可持續性。應持續評估以解決負面影響,包括對未來世代的影響。
數據隱私、數據保護和數據治理
應建立或加強適當的數據保護框架和數據治理機制,以確保個人的隱私和權利根據法律指導維護數據完整性和個人數據保護。任何人工智慧系統都不應侵犯其他人類的隱私。
人類監督
應保證人類監督,以確保使用人工智慧的結果是公平和公正的。應採用以人為中心的設計實踐,並賦予人類在任何階段介入的能力,決定如何以及何時使用人工智慧,並覆蓋人工智慧做出的任何決策。聯合國相當明確地建議,任何影響生死的決策都不應交由人工智慧來做。
透明度與可解釋性
在我看來,這是平等指導方針的一部分。每個使用人工智慧的人都應該充分理解他們所使用的系統、系統的決策過程及其影響。當涉及到他們的權利、自由或利益的決策由人工智慧做出時,應告知個人,最重要的是,解釋應以易於理解的方式進行。
責任與問責
這是揭發者原則,涵蓋審計和盡職調查,以及保護揭發者,以確保對人工智慧的決策和使用負責任和問責。應建立治理機制,圍繞人類對任何基於人工智慧的決策的倫理和法律責任。任何造成傷害的決策都應進行調查並採取行動。
包容性與參與
就像在商業的其他領域一樣,在設計、部署和使用人工智慧系統時,應採取包容性、跨學科和參與式的方法,這也包括性別平等。應告知和諮詢利益相關者及任何受影響的社區,並告知他們任何利益和潛在風險。
結論
圍繞這些核心原則建立你的人工智慧整合,應能讓你感到放心,確保你的人工智慧整合是建立在倫理和堅實的基礎上。
想了解更多來自行業領袖的人工智慧和大數據資訊嗎?請查看在阿姆斯特丹、加州和倫敦舉行的人工智慧與大數據博覽會。這個綜合性活動與其他領先活動如智能自動化會議、BlockX、數位轉型週和網路安全與雲端博覽會同時舉行。
探索由TechForge提供的其他即將舉行的企業技術活動和網路研討會。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!