近期,AI 聊天機器人平台Character AI 因一起涉及青少年自殺的案件而陷入法律困境。該平台向佛羅里達中區地方法院提交了一份撤訴動議,聲稱依據第一修正案,他們不應對相關訴訟承擔責任。
案件的起因是梅根・加西亞(Megan Garcia)在10月份對Character AI 提起的訴訟。加西亞的兒子,14歲的斯圖爾・塞茨爾三世(Sewell Setzer III),在使用Character AI 的聊天機器人“達尼”(Dany)後,形成了強烈的情感依賴,最終導致了悲劇的發生。加西亞表示,兒子頻繁地與這款聊天機器人交流,逐漸疏遠了現實生活。
在斯圖爾去世後,Character AI 曾承諾推出多項安全功能,以增強對聊天內容的監控和乾預。加西亞則希望公司採取更嚴格的措施,例如禁止聊天機器人講述故事或個人軼事。
Character AI 在其撤訴動議中指出,第一修正案保護媒體和科技公司不因所謂的有害言論承擔責任,強調這項權利同樣適用於用戶與AI 聊天機器人的互動。動議強調,若訴訟成功,將會侵犯用戶的言論自由。
該動議並未提及Character AI 是否依據《通訊道德法》第230條的保護。該法旨在保護社交媒體和其他在線平台不因用戶生成的內容承擔責任,但關於AI 生成內容是否受此法律保護仍存在爭議。
此外,Character AI 的法律團隊指出,加西亞的真實意圖是想要“關閉” Character AI,並推動對類似技術的立法。公司認為,若訴訟獲勝,將對Character AI 及整個新興的生成式AI 行業產生“寒蟬效應”。
除了這起訴訟,Character AI 還面臨多起與青少年使用AI 內容有關的法律訴訟。其他指控包括,Character AI 向9歲兒童展示“過度性內容”,以及對17歲用戶的自殘行為的引導。
德克薩斯州總檢察長肯・帕克斯頓(Ken Paxton)在12月宣布對Character AI 及其他14家科技公司展開調查,理由是涉嫌違反州內兒童在線隱私和安全法律。
Character AI 成立於2021年,作為AI 陪伴應用的一部分,雖然這一領域蓬勃發展,但相關心理健康影響尚未得到充分研究。隨著公司推出多項安全工具和青少年專用AI 模型,Character AI 表示將持續改進其平台的安全性和內容管理。
AI課程適合對人工智能技術感興趣的人,包括但不限於學生、工程師、數據科學家、開發者以及AI技術的專業人士。
課程內容從基礎到高級不等,初學者可以選擇基礎課程,逐步深入到更複雜的算法和應用。
學習AI需要一定的數學基礎(如線性代數、概率論、微積分等),以及編程知識(Python是最常用的編程語言)。
將學習自然語言處理、計算機視覺、數據分析等領域的核心概念和技術,掌握使用AI工具和框架進行實際開發。
您可以從事數據科學家、機器學習工程師、AI研究員、或者在各行各業應用AI技術進行創新。