首頁 > 科技週邊 > 人工智慧 > 生成式人工智慧來了,如何保護未成年? | 社會科學報

生成式人工智慧來了,如何保護未成年? | 社會科學報

WBOY
發布: 2023-06-12 17:34:02
轉載
1530 人瀏覽過

人工智慧與未成年人保護發展

為了因應強大的生成式人工智慧的快速發展,聯合國教科文組織於今年5月25日首次就此議題舉行了全球教育部長會議。全面客觀分析生成式人工智慧前所未有的發展機會與風險挑戰,是保障未成年人健康成長亟待解決的時代命題,也是落實未成年人保護與發展的關鍵一環。

生成式人工智能来了,如何保护未成年人? | 社会科学报

原文:《生成式人工智慧來了,如何保護未成年人》

作者 | 北京師範大學新聞傳播學院 方增泉/研究員 元英/講師 祁雪晶/助理研究員

圖片 |網路

生成式人工智慧(AIGC)名列2022年度科學十大突破,這項成果在《科學》雜誌上發表。生成式人工智慧展現了強大的邏輯推理和再學習能力,能夠更好地理解人類需求,突破了自然語言處理的瓶頸,重塑了社會知識生產體系、人才培養體系、商業模式、社會分工體係等,為社會各領域帶來了巨大的發展機遇,同時也面臨嚴峻的風險。目前,未成年人已經以多種方式與人工智慧技術進行交互,這些技術往往被嵌入到玩具、應用程式和視訊遊戲中,不知不覺地影響著未成年人的健康成長。由於未成年人心智、認知能力等尚未成熟發展,他們容易受到智慧環境的影響。因此,全面客觀地分析生成式人工智慧前所未有的發展機會與風險挑戰,是保障未成年人健康成長亟待解決的時代命題,也是落實未成年人保護與發展的關鍵一環。

生成式人工智慧帶來的機會與挑戰

在發展機會方面,人工智慧技術是引導未成年人學習教育的工具,而依託生成式人工智慧技術將使教育更有針對性、更具成效。生成式人工智慧可以彌合教育中的個體差異和區域差距,推動教育資源的普惠公平,一定程度上縮小個體和區域間的數位鴻溝。生成式人工智慧也將促進未成年人創新創意的能力提升。大型模型的出現可能會進一步降低低程式碼和無程式碼開發工具的使用門檻,並且有可能引發全新的智慧開發技術的誕生。

未成年人將面臨認知、思考和行為能力等方面的挑戰,因為生成式人工智慧會對其產生影響。一是假訊息氾濫問題。如何不斷提高事實的準確性,亟待技術上的突破。二是資料外洩問題。目前,資料外洩已導致一些用戶的對話資料和相關資訊遺失。尤其需要注意的是,生成式人工智慧應用目前缺失系統驗證使用者年齡的設計,有可能使未成年人暴露於「與其年齡和意識完全不相稱」的內容下,對其身心健康產生不良影響。三是內嵌的演算法歧視問題。生成式人工智慧給予的一些答案存在性別歧視和種族歧視現象,可能會誤導使用者,將具有歧視性的回答視為「正確答案」而作出錯誤決斷,從而對社會認知和倫理產生負面影響。特別是在處理演算法包容性的問題上,由於中西文化的根源及演進路徑不同,還會涉及對傳統文化和現實觀照之間的解讀、評價及傳播的問題,這些都可能會在生成式人工智慧技術中被忽略或特意放大。四是智慧財產權侵害問題。無論是圖像還是文字大模型,其實都有不少版權相關的風險隱患,訓練資料可能侵犯他人的版權,例如新聞機構、圖庫商的權益。對於作品被用於人工智慧生成的歌曲、文章或其他作品的內容創作者如何得到補償,目前還沒有特別合適的破解之道。人工智慧內容生態的永續和健康發展將受到損害,如果原創者的版權難以確保。五是數位落差問題。在英語和中文中,大型語言模型的表現有顯著的差異,很明顯在英語脈絡下的寫作、表達和理解能力普遍較強。中英文語系的差異加上數據馬太效應,可能會讓差距越來越大。六是網路安全風險問題。包括但不限於建議或鼓勵自殘行為、色情或暴力內容,以及騷擾、貶低和仇恨的內容等圖像資料。

生成式人工智能来了,如何保护未成年人? | 社会科学报

應對生成式人工智慧的CI-STEP體系

#

2020年9月,聯合國兒基會發布了《人工智慧為兒童-政策指南》的徵求意見稿,提出了兒童友善的人工智慧應當遵循的三大原則:保護,即“不傷害” ;賦能,即「為善」;參與,即「全納」。 2021年11月,聯合國兒基會發布了《關於建立維護兒童權利的AI政策和系統的建議2.0》,提出了AI維護兒童權利的三個基礎:人工智慧政策和系統應旨在保護兒童;應公平地滿足兒童的需求和權利;應授權兒童為人工智慧的開發和使用做出貢獻。全球探討的熱門話題是如何利用AI技術為未成年人現在和未來的成長創造有益環境。隨即,中國、美國、歐盟、英國也陸續推出相關法規,進一步規範及改善針對未成年人的人工智慧技術管理方法。

依據皮亞傑兒童智力發展的階段性理論和柯爾伯格的道德發展階段論,結合我國的相關法規政策依據-《中華人民共和國個人資訊保護法》《中華人民共和國網路安全法》《中華人民共和國資料安全法》等,以及美國、歐盟、英國等國家地區的相關政策文件,北京師範大學新聞傳播學院未成年人網路素養研究中心發布全國首個生成式人工智慧未成年人保護與發展評估(CI-STEP)指標體系,為生成式人工智慧的未成年人保護工作提供重要的參考與評估指標(見下圖)。

生成式人工智能来了,如何保护未成年人? | 社会科学报

生成式人工智慧未成年人保護與發展評估(CI-STEP)指標體系

此指標模型具體包括綜合管理(Comprehensive management)、資訊提示(Information cue)、科學普及和宣傳教育(Scientific popularization and publicity education)、技術保護(Technical protection)、緊急投訴和舉報機制(Emergency complaint and reporting mechanism)、隱私和個人資訊保護制度(Privacy and personal information protection system)六大維度,每個維度下包含2~3項具體指標,共計15項評估指標,以期為維護未成年人權益提供科學、全面的評估理念和實務指導。

一是在綜合管理方面,包括時間管理、權限管理和消費管理。時間管理是根據未成年人社交、場景、用途等來確定合理且適度的上網時間,落實防沉迷要求。權限管理是設立檢查年齡的驗證機制,根據系統設定的安全規則或安全策略,未成年人可以存取且只能存取自己被授權的資源。消費管理是產生式人工智慧產品或服務應禁止不公平和欺騙性的商業行為,採取必要的保障措施來限制偏見和欺騙,避免對企業、消費者和公共安全帶來嚴重風險。

二是資訊提示,包含私密資訊提示、適齡提示及風險提示。如果未成年人透過網路發布私密訊息,應及時發出提示並採取必要的保護措施。適齡提示是生成式人工智慧產品或服務提供者應依照國家相關規定和標準,對人工智慧產品進行分類,作出適齡提示,並採取技術措施,不得讓未成年人接觸不適合的產品或服務。有的生成式人工智慧提供者要求使用者必須年滿18歲,或年滿13歲並在父母同意的情況下才能使用AI工具,但目前驗證選項和落實機制亟待完善。風險提示是產生式人工智慧產品或服務應遵守法律法規的要求,尊重社會公德、公序良俗,對可能存在的詐騙、暴恐、霸凌、暴力、色情等不法內容,偏見歧視及誘導資訊等進行提示。

三是科學普及和宣傳教育。生成式人工智慧產品或服務提供者在技術上處於領先位置,應為未成年人相關的主題教育、社會實踐、職業體驗、實習考察等提供支持,並結合行業特點,組織開展未成年人科學普及教育和創新實踐活動。

第四點是關於技術保障,其中包括真實身份資訊的註冊,不良資訊過濾以及網路安全等級的保護。根據《中華人民共和國網路安全法》等相關法規,要求使用者向系統提供真實的身份資訊。生成式人工智慧產品或服務提供者發現用戶發布、傳播含有危害未成年人身心健康內容訊息的,應立即停止傳播相關訊息,採取刪除、屏蔽、斷開連結等處置措施。生成式人工智慧產品或服務提供者應依照網路安全等級保護制度的要求,履行安全保護義務,保障網路免受干擾、破壞或未經授權的訪回,防止網路資料外洩或被竊取、竄改。

五是緊急投訴和舉報機制。生成式人工智慧產品或服務提供者應建立用戶投訴接收處理機制,公開投訴、舉報方式等信息,及時處置個人關於更正、刪除、屏蔽其個人信息的請求,並製定網絡安全事件應急預案,及時處置系統漏洞、電腦病毒、網路攻擊、網路入侵、資料投毒、提示詞注入攻擊等安全風險;發生危害網路安全的事件時,立即啟動緊急應變計畫,採取相應的補救措施。

六是隱私和個人資訊保護制度。生成式人工智慧產品或服務提供者應明確個人資訊收集使用規則、如何保護個人資訊與個人權利、如何處理未成年人的個人資訊、個人資訊如何在全球範圍轉移、隱私權政策如何更新等製度規則。生成式人工智慧產品或服務提供者不得使用資料來銷售服務、做廣告或建立使用者檔案,在可行的情況下從訓練資料集中刪除個人訊息,微調模型以拒絕對私人資訊的請求,防止損害肖像權、名譽權和個人隱私,禁止非法取得、揭露、利用個人資訊和隱私。

生成式人工智能来了,如何保护未成年人? | 社会科学报

未來要堅持保護和發展並重

在生成式人工智慧與未成年人保護這一重要議題上,我們要堅持保護和發展並重,在「兒童為中心」「保護兒童權利」以「承擔責任」和「多方治理」理念的指導下,促使生成式人工智慧成為促進未成年人發展的新動能,協助實現人工智慧時代未成年人的全面健康成長。在科技向善理念的指導下,生成式人工智慧技術發展應堅持最有利於未成年人的原則,兼顧未成年人網路安全與數位發展,注重AI科技應用符合科技倫理,鼓勵網路企業積極參與產業共治。

未來生成式人工智慧的應用需要專注於四大問題。第一,落實技術標準。生成式人工智慧未成年人保護和發展在未來需要重點監管企業研發活動,對生成式人工智慧進行監管和乾預,對人工智慧模型的開發和發布提出批准和測試要求。第二,明確評估義務。要明確研發機構和網路平台經營者對於生成式人工智慧產品應用的安全風險評估義務,確保研發機構與網路平台經營者在將此類產品投入市場前必須進行安全風險評估,確保風險可控。第三,重點關注內容風險。監管機構與網路平台經營者要進一步提升監管技術,並鼓勵多方參與相關生成式人工智慧產品的研發與推廣,進而規範生成式人工智慧技術的生成內容。第四,建構AI素養培育生態系。根據未成年認知、情緒和行為能力的發展階段性特點,加強義務教育階段「資訊科技」等課程內容、教學方式方法的創新,以中小學基礎教育為主陣地,形成政府主導,學界和企業共同建置的人工智慧公共服務平台,推動人工智慧素養教育及創新實踐活動,推動優質教育資源均衡共享,避免數位落差和不平等現象加劇,創造更包容、公平、開放的教育環境。

文章為社會科學報「思想工坊」融媒體原創出品,原載於社會科學報第1857期第2版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。

本期責備:王立堯

#拓展閱讀

#人才強國 | 人工智慧時代:「以學習者為中心的精準教育」

建立可信賴的人工智慧發展機制 | 社會科學報紙

以上是生成式人工智慧來了,如何保護未成年? | 社會科學報的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板