精品免费久久久久电影,2021国产精品久久无码专区,午夜福利国产精品久久,欧美日韩视频一区中文字幕

    1. <var id="hftlq"><td id="hftlq"></td></var>
  • <rp id="hftlq"><th id="hftlq"></th></rp>

        1. 駐馬店融媒宣傳下載
          您當前所在位置:駐馬店廣視網(wǎng)>法治> 正文

          分 享 至 手 機

          只需一張照片 AI換臉就能以假亂真?這幾種圖片不要隨便發(fā)

          時間:2024-09-10 09:30:28|來源:央視新聞客戶端|點擊量:4022

          隨著人工智能技術的快速發(fā)展,相關的應用正在進入我們生活的方方面面。然而,這也給個人信息保護帶來了新的挑戰(zhàn)。在8日開幕的2024年國家網(wǎng)絡安全宣傳周上,關于AI換臉、換聲等對個人隱私侵害的話題成為大家關注的焦點。一張“人像照片”、一段近距離的人物視頻,都有可能成為不法分子犯罪的新手段和新工具。

          在今年的網(wǎng)絡安全博覽會上,各大安全企業(yè)紛紛展示了安全領域新產品和新技術,尤其是針對人工智能的安全防護更是成為各大安全企業(yè)著力的重點領域。

          畫面中技術人員正在演示的就是“AI換臉”技術,僅需一張目標人物的靜態(tài)照片,就能讓照片中的人物動起來。

          中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會委員 張博:本身是一張不會動的靜態(tài)圖片,演示者做一些動作之后,AI換臉軟件采集到了演示者面部動起來的特征,把特征融合到靜態(tài)圖片當中,就讓圖片照著演示者的動作動了起來,也可以形成一個視頻。

          張博介紹,盡管現(xiàn)在AI換臉、換聲等有一定的技術門檻和操作成本,但如果被不法分子獲取的情況下,就有可能被用來假冒他人,實施相關的犯罪活動。

          中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會委員 張博:當前AI換臉技術還是比較成熟,能支持視頻通話實時換臉,可以達到以假亂真的程度。除了換臉之外,再結合著換背景環(huán)境、換聲音等,逼真度就會更高,更加難以分辨。

          通過“換臉”偽造不雅照

          不法分子敲詐勒索

          AI換臉、換聲等技術一旦被不法分子利用,還會成為敲詐勒索的工具,此類案例在各地已經發(fā)生了很多起。前不久,深圳警方打掉一個犯罪團伙,這個團伙從網(wǎng)上等各種渠道收集被害人圖片信息,然后進行合成處理,用來敲詐勒索。

          前不久,深圳市民吳先生突然收到一個陌生手機號碼發(fā)來的彩信,點開一看竟然是他和一名陌生女子在酒店房間內的不雅照片。

          當事人 吳先生:當時我收到一條彩信,里面是我的一張裸照。他當時威脅我,在幾點之前要跟他聯(lián)系、轉錢,我當時一想不對勁,就報警了。

          深圳警方接到報案后,立即對吳先生提供的線索進行偵查。通過梳理報案記錄,警方發(fā)現(xiàn)全市有同樣遭遇的不止吳先生一人,犯罪嫌疑人的敲詐勒索方式都如出一轍。

          隨著調查的深入,警方發(fā)現(xiàn)這是一個以王某為首的犯罪團伙,團伙內分工明確,有人負責修圖,有人負責尋找作案目標,有人負責發(fā)短信打電話敲詐勒索。在掌握大量線索后,深圳警方展開統(tǒng)一收網(wǎng)行動,成功抓獲以王某為首的10多名犯罪嫌疑人。

          在犯罪嫌疑人的電腦里,警方發(fā)現(xiàn)了大量經過合成換臉后的不雅照片。

          深圳市公安局坪山分局民警 張威:從嫌疑人電腦里面提取的相關證據(jù),這些圖片是嫌疑人從各種渠道收集的被害人圖片信息,然后進行合成處理用來敲詐被害人。

          目前,王某等人已被檢察機關提起公訴。案件正在進一步審理當中。

          專家:加快相關反制技術的開發(fā)和應用

          運用先進的AI技術制作換臉視頻或仿真聲音進行違法活動,確實容易讓人上當受騙,這不僅對個人隱私保護提出了新的挑戰(zhàn),更凸顯了相關法規(guī)和反制技術的重要性。

          據(jù)了解,目前針對“AI換臉”技術實施各類侵犯個人信息的行為時有發(fā)生,在灰色領域甚至違法犯罪領域被濫用。網(wǎng)絡安全專家建議應加快相關反制技術的開發(fā)和應用。

          中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會委員 張博:可以通過人工智能檢測技術來識別視頻的真實性,是不是有偽造的內容。另外也可以結合身份認證、數(shù)字水印的手段來加大偽造難度。從管理方面,需要加快相關法律法規(guī)以及監(jiān)管措施的制定和落實,來規(guī)范AI應用的使用方式和應用場景。

          網(wǎng)絡安全專家提示,AI換臉等違法行為的最關鍵原因是個人隱私信息的泄露。因此,我們在日常上網(wǎng)過程中,要盡量避免人臉、指紋等個人生物信息的過度公開和分享。如果接到“家人”“領導”等轉賬、匯款的視頻,一定要仔細甄別真?zhèn)巍?/p>

          中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會委員 張博:AI換臉通常跟交易詐騙的場景相伴出現(xiàn),比如視頻通話,要注意觀察對方視頻當中的面部輪廓、光線背景這樣的細節(jié),看看是否有異常。如有必要可以要求對方做快速地抬頭、點頭、轉頭的動作,進一步判斷視頻是否有異常的細節(jié),來確認這個視頻是真實的。

          警惕!這幾種照片千萬不要隨便發(fā)

          日常生活中,不少人喜歡在朋友圈、短視頻上曬美食、曬美景,但是如果不小心的話,這些行為很可能間接泄露你的個人信息。如果被別有用心的人獲取,可能會危及自己和家人的財產乃至人身安全。哪些照片一定要小心,千萬不要隨意發(fā)到網(wǎng)上呢?

          不要公布手持身份證或手持白紙照。這些照片中會包含個人姓名、身份證號碼、住址等敏感信息,一旦泄露,不法分子可能利用這些信息進行身份盜用,辦理信用卡、貸款等金融業(yè)務,甚至進行違法活動。另外,手持白紙或手持報紙等照片常被用于驗證身份,如果被不法分子獲取,可能被用于制作假證件或進行網(wǎng)絡詐騙,會給個人帶來經濟損失和名譽損害。

          不要發(fā)布各種票據(jù)類的照片。很多人出差、旅游都喜歡拍火車票或飛機登機牌,發(fā)到自己的朋友圈分享。這些票據(jù)上不僅會包含姓名、出發(fā)地、目的地等信息,而且在條紋碼或者二維碼中也會含有乘客的個人信息,存在被不法分子破解并竊取的可能。

          不要曬家門鑰匙、車牌等照片。不法者通過大數(shù)據(jù)等技術手段,通過這些照片會分析出發(fā)布者特定時間所處的特定位置,也會獲取發(fā)布者相關的生活習慣。所以,最好的辦法就是不要在照片中出現(xiàn)特征明顯的物品,例如家門鑰匙、車牌號碼等。

          網(wǎng)絡安全專家強調,保護個人隱私至關重要。公眾應提高警惕,避免在網(wǎng)絡上隨意發(fā)布包含個人敏感信息的照片。同時,建議定期檢查和更新個人隱私設置,確保個人信息的安全。

          免責聲明:凡本網(wǎng)注明“來源:XXX(非駐馬店廣視網(wǎng)、駐馬店融媒、駐馬店網(wǎng)絡問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,作品版權歸原作者所有,如有侵犯您的原創(chuàng)版權請告知,我們將盡快刪除相關內容。凡是本網(wǎng)原創(chuàng)的作品,拒絕任何不保留版權的轉載,如需轉載請標注來源并添加本文鏈接:http://bropke.cn/showinfo-124-333605-0.html,否則承擔相應法律后果。