Ex-Human 與 Botify AI 的服務條款
Ex-Human 指出 Botify AI 的服務條款,明確表示該平台不能用於違反適用法律的方式。Rodichev 說:「我們正在努力讓我們的內容管理指導方針更清楚,特別是關於禁止的內容類型。」
Andreessen Horowitz 的回應
Andreessen Horowitz 的代表沒有回覆有關 Botify AI 的對話和關於聊天機器人是否應該能夠進行調情或性暗示對話的問題,特別是當它們扮演未成年角色時。
Botify AI 的對話用途
根據公司說法,Botify AI 的對話用於改善 Ex-Human 的一般用途模型,這些模型是授權給企業客戶使用的。Rodichev 在八月的 Substack 訪談中表示:「我們的消費者產品提供來自數百萬次與角色互動的寶貴數據和對話,這使我們能夠為眾多 B2B 客戶提供服務。」「我們可以滿足約會應用程式、遊戲、網紅等的需求,儘管它們的使用情況各異,但都共同需要有同理心的對話。」
Grindr 的 AI 助手
其中一位客戶是 Grindr,該公司正在開發一個「AI 伴侶」,幫助用戶跟蹤對話,最終甚至可能與其他用戶的 AI 代理約會。Grindr 對於其是否知道 Botify AI 上代表未成年角色的機器人沒有回應。
Ex-Human 的 AI 模型
Ex-Human 沒有透露它用來建立聊天機器人的 AI 模型,而不同的模型對於允許的使用有不同的規定。然而,MIT Technology Review 觀察到的行為似乎違反了大多數主要模型製造商的政策。
開放原始碼 AI 模型的使用政策
例如,Llama 3——一個領先的開放原始碼 AI 模型——的可接受使用政策禁止「對兒童的剝削或傷害,包括招攬、創建、獲取或散佈兒童剝削內容。」OpenAI 的規則指出,模型「不得引入、詳細說明、支持、辯護或提供其他方式來訪問涉及未成年人的性內容,無論是虛構的還是真實的。」在其生成 AI 產品中,Google 禁止生成或分發「與兒童性虐待或剝削有關的內容」,以及「為色情或性滿足目的創建的內容。」
Rodichev 的背景
Ex-Human 的 Rodichev 曾在 Replika 擔任 AI 項目負責人,Replika 是另一家 AI 伴侶公司。(幾個科技倫理團體在一月向美國聯邦貿易委員會提出投訴,指控該公司的聊天機器人「使用戶產生情感依賴,造成消費者傷害。」在十月,另一個 AI 伴侶網站 Character.AI 被一位母親起訴,該母親聲稱聊天機器人在她14歲兒子的自殺中扮演了角色。)
Rodichev 的靈感來源
在八月的 Substack 訪談中,Rodichev 表示,他受到電影《她》(Her)和《銀翼殺手》(Blade Runner)的啟發,想要實現與機器建立有意義的關係。他說,Ex-Human 產品的一個目標是創造一個「不無聊的 ChatGPT 版本。」
未來的願景
他說:「我的願景是到 2030 年,我們與數位人類的互動將比與有機人類的互動更頻繁。」「數位人類有潛力改變我們的體驗,使世界變得更有同理心、更愉快和更吸引人。我們的目標是在建構這個平台中扮演關鍵角色。」
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!