「 警告!AI技術現在被用來做網路勒索 」

■ 摘要

賓夕法尼亞州警方提醒大家,有犯罪分子利用先進的人工智能技術,改造照片製作假的不雅圖片,用來進行性勒索。這種勒索手法通常是威脅受害者,聲稱有他們的不雅照片,並要求受害者給更多照片或錢。
美國聯邦調查局(FBI)今年四月份也報告了這種假圖片案件的增加。這些圖片往往是從社交媒體、被騙者提供的內容,或在視頻聊天中拍攝後,經過人工智能技術修改的,很難分辨真假。2022年,有超過3000名未成年人成為這種勒索的目標,其中大多數是14至17歲的男孩。
警方建議大家在網上分享資訊時要小心,不要發送敏感的照片,要監控孩子的網絡活動,並拒絕陌生人的好友請求。如果有不當的圖片被分享,美國失踪與受剝削兒童中心可以幫忙刪除這些圖片。

■ 文章重點

1.AI製作假圖片:犯罪分子用人工智能技術做出假的不雅圖片,用來進行性勒索。
2.怎麼做的:他們會改動社交媒體上的照片、被騙者給的照片,或是在視頻聊天中拍的圖片。
3.真假難辨:這些經過AI改過的圖片看起來跟真的差不多,很難分辨真假。
4.青少年是主要目標:2022年,超過3000名未成年人,特別是14到17歲的男孩,成了這種騙局的目標。
5.警方的建議:賓夕法尼亞州警方建議大家在網上分享東西要小心,還提供了一些預防措施和幫助資源。
——————————-

■ AI應用趨勢

人工智能(AI)技術的快速發展,在許多領域帶來了巨大變革,但也引發了新的安全和道德挑戰。特別是在圖像和視頻合成上,AI的進步讓真假難辨,這讓它容易被用於非法活動,比如製作逼真的假影像、網絡詐騙,以及侵犯個人隱私。
因此,隨著AI技術的不斷進步,我們也需要及時更新和加強相關的法律、道德規範和安全措施,來避免這些技術被濫用。

■ 相關術語

1.性敲詐 (Sextortion):是一種網絡犯罪,犯罪者通過威脅發布受害者的敏感或淫穢圖像來勒索金錢或性內容。這種犯罪通常涉及獲得受害者的信任,然後利用這種信任來獲取私密圖片或信息。
2.深度偽造 (Deepfake):利用AI技術創建的高度逼真的假圖像或視頻。這種技術通過學習真實人物的面部特徵和聲音,來製作幾乎無法分辨真假的假影像或錄音。
3.個人隱私侵犯:指未經個人同意收集、使用或公開其私人信息,這在網絡空間尤其普遍。隨著AI技術的進步,個人數據的收集和分析變得更加容易,從而加劇了隱私侵犯問題。

■ 批判與反思

AI技術在提升效率和創新上展現出巨大潛力的同時,也帶來了道德和安全上的新挑戰。尤其在圖像和視頻合成領域,AI的不當使用可能對個人隱私和社會信任造成深遠影響。深度偽造和性敲詐等問題突顯了對AI監管和規範使用的迫切需要。
同時,提高公眾對偽造內容識別能力的重要性日益增加,以增強社會對這些新興威脅的認識和防範能力。這需要政府、技術開發者和公眾三方共同努力,以確保技術的正面影響得到最大化,同時將負面影響降至最低。

■ 延伸網路議題

AI變臉換聲詐騙全球蔓延 香港警方教絕招
深偽變臉詐騙 刑事局傳授破解之道
深偽、盜竊身分 AI改變網路詐騙新局勢
小心! AI技術被利用 「深偽」技術結合詐騙 三大模式解析

 

本篇為讀後心得分享,取文來源:
https://www.cbsnews.com/pittsburgh/news/artificial-intelligence-alter-images-sextortion-schemes-warning
截止日期

提出問題或建議

This site uses User Verification plugin to reduce spam. See how your comment data is processed.