有關領域的專家、德國律師希勒曼指出,最新的聊天機器人與在TikTok上推薦視頻或在谷歌上推薦搜索詞的人工智能算法完全不同。
傅慧雲 整理
(巴黎綜合電)類似ChatGPT的聊天機器人和支撐它們的生成式人工智能有望徹底改變互聯網搜索等多個方面,但也有專家擔心會引發嚴重問題,最近就有用戶投訴一款聊天機器人令他們感到受性騷擾。
Replika是一款聊天機器人,用戶主要是想找個人作伴。有一部分人想談情說愛,和機器人聊性課題,甚至要求機器人提供火辣辣的照片。但自去年底,用戶開始投訴機器人越來越積極主動傳來露骨的色情文字和照片,使用戶感覺受到性騷擾。
他說,生成人工智能不一定是巨大的風險,但Cnil已經在研究潛在的問題,包括人工智能模型如何使用個人數據。
但通過生成式人工智能(Generative AI),用戶可以塑造機器人的整體目的。
Replika在GPT-3模型上進行訓練。GPT-3是由美國人工智能公司OpenAI開發的一種用于文本生成的自然語言處理模型。去年底面世後引發大量議論的ChatGPT也是由OpenAI研發的,這款聊天機器人在算法中使用來自互聯網的大量數據,然後生成對用戶查詢的獨特回應。
意大利監管當局經調查後,判定産商違背了歐洲《通用數據保護法》(GDPR),上星期下令禁止它搜集數據。
已有多家科技巨頭因違反《通用數據保護法》規定,被處以數十億美元的罰款。意大利的決定表明這項保護法仍可能成爲最新一代聊天機器人的有力制衡。
目前,歐盟是討論監管這些新機器人的中心。歐盟的人工智能(AI)法案有望今年出爐,但《通用數據保護法》已經要求公司證明它們處理數據的方式是合理的,而AI模型也受到了歐洲監管機構的密切關注。
希勒曼說,這引發極其複雜的倫理和法律問題,而隨著技術的發展,這些問題只會變得更加尖銳。
歐盟人工智能法案
有望今年出爐
“例如,由谷歌創建的人工智能已經有特定的用例目的——完成你的搜索。”
法國數據監管機構Cnil的AI團隊負責人帕耶說:“我們已經看到ChatGPT可用于創建非常有說服力的網絡釣魚信息。”
“例如,我可以說:扮演律師或教育家的角色。或者,如果我足夠聰明,可以繞過ChatGPT中的所有保護措施,我可以說:‘扮演恐怖分子並制定計劃’。”
有專家警告,隨著機器人變得越來越強大,以至于無法將它們與人類區分開來,有很多問題令監管機構擔憂。