Tại Hàn Quốc, một đường dây phòng chat Telegram có khoảng 212.000 thành viên bị phát hiện lan truyền hình ảnh nhạy cảm của phụ nữ, trong đó có video ghép khuôn mặt của các nữ idol Kpop vào phim người lớn. Chưa hết, đáng phẫn nộ hơn khi để tham gia nhóm chat Telegram này, người dùng phải gửi hình chụp và thông tin cá nhân của một người phụ nữ.
Theo Korea Times, các thông tin cá nhân này sẽ được tội phạm lưu trữ và sử dụng để tạo ra các video Deepfake giả mạo và khiêu dâm sau đó phát tán lên mạng xã hội. Ngay sau khi đường dây này bị phanh phui, một làn sóng sợ hãi và phẫn nộ bao trùm cả Hàn Quốc. Nhiều nữ sinh, phụ nữ tại đất nước này lập tức khóa tài khoản MXH, ẩn mọi hình ảnh của bản thân.
Thậm chí, nhiều ngôi sao giải trí Hàn Quốc từ ca sĩ, diễn viên… đều trở thành nạn nhân của công nghệ Deepfake. Ngoài phòng chat Telegram ghê rợn trên, theo thống kê, có đến hơn 200 thần tượng nữ Hàn Quốc đã xuất hiện công khai trên một trang web phim khiêu dâm vì công nghệ Deepfake. Vậy Deepfake là gì?
Deepfake là gì?
Deepfake thực chất là từ ghép, được kết hợp giữa thuật ngữ “deep learning” và “fake”. Fake có nghĩa là giả, đây là từ hầu như mọi người đều hiểu. Còn “deep learning” là quá trình AI (trí tuệ nhân tạo) nghiên cứu bài học nào đó đến mức “thuộc lòng”, ở trường hợp này chính là khuôn mặt người.
AI này sẽ tiến hành quét và ghi nhớ liên tục những đặc điểm của một khuôn mặt xác định. Không chỉ mắt, mũi, miệng, vị trí tương quan giữa chúng mà còn là những phản ứng của đối tượng ở nhiều trường hợp khác nhau. Việc học này sẽ càng hiệu quả khi khối dữ liệu được đưa vào càng lớn, cùng với thời gian trau dồi càng dài.
Sau quá trình “deep learning”, AI sẽ có thể tái tạo được hình ảnh người này một cách vô cùng chân thực, từ các nếp nhăn, ánh mắt, thậm chí là cử động của cơ mặt. Quá trình này sẽ được thực hiện tương tự trên khuôn mặt khác, từ đó dễ dàng hoán đổi nhận diện của 2 con người này với nhau. Sau đó, video deepfake sẽ hoàn tất.
Deepfake là quá trình AI (trí tuệ nhân tạo) dùng phương pháp kỹ thuật số để thay thế chân dung của người này bằng chân dung của người khác.
Bên cạnh đó, công nghệ Deepfake ngày càng tinh vi và khó phát hiện so với trước đây rất nhiều. Giờ đây, những video khiêu dâm tràn lan trên internet có thể ghép mặt “khớp từng frame” và bất cứ ai cũng có thể trở thành nạn nhân của công nghệ nguy hiểm này.
Tại sao Deepfake lại đáng sợ đến thế?
Thời gian qua, có nhiều trường hợp sử dụng công nghệ Deepfake để tạo ra các video khiêu dâm giả mạo người nổi tiếng trở thành vấn đề khiến rất nhiều nghệ sĩ cả ở Việt Nam và trên thế giới nhức nhối. Trước đây, Ninh Dương Lan Ngọc từng là nạn nhân của video Deepfake đã qua chỉnh sửa, sau đó nữ diễn viên này và quản lý đã phải lên tiếng đính chính. Trên thế giới, nhiều người nổi tiếng như Taylor Swift, Song Hye-kyo, Lisa (BLACKPINK)… cũng chính là nạn nhân của công nghệ nguy hiểm này.
Không chỉ các nghệ sĩ nữ, nam giới cũng có thể trở thành nạn nhân của Deepfake. Tháng 4/2023, tràn lan các ảnh ghép 18+ Sơn Tùng M-TP, HIEUTHUHAI và nhiều sao Việt, được kẻ xấu rao bán công khai. Dĩ nhiên thủ phạm chính là Deepfake.
Ngoài ra, một trong những nguyên nhân khiến vụ việc phòng chat Telegram gây phẫn nộ chưa từng có tại Hàn Quốc chính là việc những tội phạm trong đường dây này sử dụng cả những thông tin, hình ảnh của trẻ vị thành niên, học sinh để tạo ra các video Deepfake giả mạo. Nó tạo ra một bóng ma bao trùm lên đất nước này, khiến rất nhiều người lo sợ khi ai cũng có thể là nạn nhân của tội phạm Deepfake.
Chưa hết, một trong những mối nguy hiểm của Deepfake là công nghệ này còn bị dùng để tạo ra tin giả gây nhiều hậu quả nghiêm trọng cho đời sống xã hội. Ví dụ, một video deepfake có thể được sử dụng để vu khống hoặc gây hiểu nhầm về những sự kiện quan trọng, từ đó gây ra những hậu quả nghiêm trọng đến an ninh, trật tự và chính trị.
Những năm gần đây, các cuộc gọi Deepfake mạo danh trở thành hình thức lừa đảo phổ biến tại Việt Nam và nhiều quốc gia trên toàn cầu. Những cuộc gọi lừa đảo này đã khiến nhiều người bị lừa với số tiền khổng lồ. Theo pymnts.com , chỉ riêng năm 2020 thì gian lận danh tính do Deepfake tạo ra đã gây thiệt hại cho các tổ chức tài chính khoảng 20 tỉ USD. Trung bình một kẻ lừa đảo thông qua Deepfake để đánh cắp từ 81.000 đến 97.000 USD trước khi vụ lừa đảo bị phanh phui. Một báo cáo khác cho thấy “những người cho vay trực tuyến đã mất khoảng 6 tỉ USD mỗi năm do gian lận danh tính và đây là loại hình tội phạm tài chính phát triển nhanh nhất thế giới”.
Nguồn: Sưu Tầm internet