【安防展覽網 時事聚焦】就在6月27日早上,據美國科技媒體Motherboard報道,一名程序員近開發出一款名叫DeepNude的應用,只要給DeepNude一張女性照片,借助神經網絡技術,App可以自動“脫掉”女性身上的衣服,顯示出裸體。
經聯系DeepNude的創建者,此人化名為“阿爾貝托”(Alberto)。他表示,該軟件基于加州大學伯克利分校研究者開發的開源算法pix2pix創建,并使用1萬張女性裸圖加以訓練。這一算法可以視為與之前的人工智能換臉技術deepfake的變種,也和無人車技術所使用的算法相似。
DeepNude已上線,照片可在處理,可下載的Windows和Linux應用也在6月23日推出,使用者無需專業知識。這款應用有免費版和50美元付費版。使用免費版獲得的圖片會出現較大水印,付費版雖然沒有免費版出現的水印,但會在圖片左上角加上“FAKE”(虛假)的印章式標注。
用幾十張照片測試,發現如果輸入《體育畫報泳裝特輯》(Sports Illustrated Swimsuit)的照片,得到的裸體照片為逼真。雖然這一技術還有缺點,多數照片(尤其是低分辨率照片)經過DeepNude處理后,得出的圖像會有人工痕跡;而輸入卡通人物照片,得出的圖像是完全扭曲的。
但因為之前就有deepfake在網絡上流傳,但這種技術很容易就會成為傷害女性的工具——要么在未經同意的前提下使用女性照片,要么在網上惡意散布色情內容。而DeepNude相當于deepfake技術的進化版,操作更簡單,處理速度更快。
為了應對這一類非法侵權現象,雖然我國早在4月20日,民法典人格權編草案二審稿提交十三屆全國人大*會第十次會議審議。其中擬規定:任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。同時還規定,其他人格權的許可使用和自然人聲音的保護,參照適用本章的有關規定。
但目前缺乏相應的特殊規制,法律救濟、行政處罰也無法律依據。在個人生物信息被濫用環節中,我國立法大部分都是空白的,或是缺乏一些可操作性的條款。
無*偶,今日早間據美國《財富》網站報道,Facebook正在制定一項監管政策,對“換臉”(deepfake)視頻加以規范。防止用戶采用人工智能(AI)深度合成技術篡改過視頻內容,以達到傳播錯誤信息的目的。
在AI技術對人類隱私侵犯愈演愈烈的當下,我當們如何處理?
中消協曾表示,個人財產信息、個人生物識別信息屬于個人敏感信息。個人敏感信息一旦泄露,將導致個人信息主體及收集、使用個人信息的組織和機構喪失對個人信息的控制能力,造成個人信息擴散范圍和用途的不可控,可能對個人信息主體人身和財產帶來重大風險。
所以針對源頭,我們應當盡量的讓自己社交媒體上的照片數量減少,以防止自己的面部信息等一系列隱私信息被不法之人抓取。
而針對隱私泄露的中間環節,則需要各個企業對自己的產品加強保護。在目前很多領域乃至許多居民小區都在大規模引進人臉識別技術的當下。它當然對于安防有很大助益,但也在客觀上增加了個人信息泄露的可能性。一旦相關產品因加密技術差而導致儲存信息被不法之徒盜取,后果也難以估量。
后針對在發生隱私泄露后的情況,應當呼吁國家將個人生物信息權作為具有人格權屬性的私權,明確納入司法保護范圍;明確個人生物信息在刑事偵查、治安管理、人口治理、醫療衛生等領域的非商業應用,以及政府和相關機構的責權利,特別是個人生物信息權保護邊界;后制定相應的特殊規制,法律救濟、行政處罰條例,讓法律成為個人隱私的“保護傘”。
結語
AI技術的進步為人們的個人隱私安全來了挑戰,但我們不能因噎廢食,如何利用好AI技術以享受技術帶來的紅利,仍然是人工智能時代需要思考的課題。