在一個人工智慧(AI)迅速改變公司運作和整個社會的世界中,規範已成為重要的討論主題。這項技術已經從單純解決特定問題的工具,變成了決策的關鍵部分,影響著健康、教育和金融服務等各個領域。雖然大規模採用這項技術無疑帶來了巨大的好處,但如果管理不當,也會帶來一些風險。其中最突出的是可能會重現訓練數據中存在的社會偏見,這可能導致歧視性決策並加劇不平等現象。
因此,人工智慧對社會的影響程度需要一種主動的規範方法,以促進負責任的創新,與道德和社會價值觀相一致,並能減輕與這項技術濫用相關的風險。然而,仍然存在一個問題:是否可以有效地規範人工智慧,而不會阻礙其創新潛力。
制約還是推動?歐洲的人工智慧法案困境
歐洲歷來在全球規範中扮演著重要角色,例如《通用數據保護條例》(GDPR),這使得世界各地的公司都採取了更嚴格的隱私和數據安全做法,成為其他地區類似法律的範本。然而,隨著人工智慧法案的推出,科技界的一些聲音對於這種影響是否能在人工智慧領域持續表示懷疑,因為他們認為提議的規範可能會在關鍵時刻阻礙歐洲的創新。
在一封公開信中,科技產業的領導者警告說,現行的規範可能會使歐洲在人工智慧方面落後於其他快速發展的地區。他們認為,如果沒有統一的規範,這個大陸可能會在這場科技競賽中落後。此外,歐盟內部的規範碎片化問題也令人擔憂,各國可能會對人工智慧的規則有不同的解讀,這將增加成本並限制地區創新。
他們還表達了對於對人工智慧模型訓練中數據使用監管增加的擔憂,認為這是技術發展的另一個障礙。在他們看來,過度的規範會限制歐洲公民接觸先進技術的機會,並使他們無法受益於改善健康、教育和交通等領域的創新。
另一方面,像Google和Microsoft等公司的先進語言模型在歐洲的可用性延遲,被視為可能影響接觸這些尖端技術的規範障礙。面對這些困難,一些初創公司已經開始考慮暫停其人工智慧開發,甚至可能搬到歐盟以外的地方。
平衡的規範
規範人工智慧是一個複雜的挑戰,因為它對經濟和社會有深遠的影響。歐盟已經邁出了重要一步,通過了全球首部人工智慧法,旨在保護人們,應用道德原則,並促進高質量的人工智慧,以推動各行各業的創新。
這項法律承認了與這項技術相關的風險,並專注於規範其使用,而不是施加一般性的限制。該法規還促進透明度和信任,作為商業模式的基石,這不僅增強了用戶的安全性,還激勵了負責任的做法,為企業在全球市場上提供競爭優勢。
在這方面,德勤(Deloitte)人工智慧風險與規範負責合夥人Manel Carpio在我們的SAS Innovate On Tour的討論會上強調,規範不應被視為創新的障礙,因為它幾乎不會妨礙任何事情。
儘管某些領域對於可能限制創新的擔憂,這項法律還包括關鍵條款,例如在成員國創建“沙盒”規範。這些受控環境允許企業在監管監督下安全地測試和開發人工智慧技術,然後再推向市場。此外,該法規要求人工智慧的可追溯性和透明度,這不僅提高了最終產品的質量,還幫助企業檢測和修正錯誤,促進公平和公正的算法。
在SAS,我們始終認為道德是創新的基本要素。因此,我們幾年前在所有人工智慧產品中採用了“設計時考慮道德”的方法,確保我們開發的每個解決方案都遵循道德原則並對社會有益。我們擁有一支由技術、法律和道德專家組成的數據倫理實踐團隊,協作創造不僅創新而且安全和透明的解決方案。遵守規範並確保我們算法的可追溯性,保護我們的客戶,並建立廣泛採用我們技術所需的信任。
總之,儘管關於人工智慧規範的討論仍在繼續,我們相信受規範的環境不必成為創新的障礙。在SAS,我們相信規範與創新可以共存,並促進道德和可靠的解決方案的創造,能夠解決複雜且影響深遠的問題。
想了解更多我們對負責任創新的承諾嗎?
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!