Hàn Quốc đang chứng kiến sự gia tăng đáng báo động của tội phạm tình dục trên không gian mạng, đặc biệt liên quan đến công nghệ Deepfake - kỹ thuật sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh, video giả mang nội dung khiêu dâm.
Theo đó, hơn 1.300 vụ tội phạm tình dục số liên quan đến công nghệ Deepfake được ghi nhận tại Hàn Quốc trong năm 2024, phần lớn nạn nhân là thanh thiếu niên, thậm chí có cả trẻ em.
Được biết, số vụ việc trong năm 2024 đã tăng gấp hơn 3 lần so với năm trước, phản ánh mức độ phổ biến và dễ tiếp cận của công nghệ AI trong xã hội, đặc biệt là giới trẻ, theo báo SCMP đưa tin.
Đáng lo ngại, có tới 92,6% nạn nhân là người trẻ đang ở độ tuổi thanh thiếu niên, trong đó không ít trường hợp là học sinh tiểu học.
Theo các chuyên gia tại trung tâm hỗ trợ xóa nội dung vi phạm trên nền tảng số, với sự phát triển nhanh chóng của AI và khả năng tiếp cận công nghệ cao của giới trẻ, các nội dung giả mạo ngày càng tinh vi, khó phân biệt với ảnh thật, khiến nạn nhân rơi vào khủng hoảng tâm lý nghiêm trọng.
Các nạn nhân sẽ được hỗ trợ xóa bỏ nội dung vi phạm, tư vấn tâm lý và chuyển hồ sơ sang cơ quan điều tra nếu cần thiết.
Trước áp lực từ dư luận và chính quyền, năm 2023, Telegram đã phải thiết lập đường dây nóng với cơ quan quản lý truyền thông và cảnh sát Hàn Quốc để hỗ trợ điều tra các vụ việc liên quan đến nội dung deepfake khiêu dâm.
Đầu năm 2025, cảnh sát Seoul đã triệt phá một đường dây tội phạm tình dục số hoạt động trên Telegram. Vụ án được đánh giá là một trong những lớn nhất từ trước đến nay trong lĩnh vực này. 14 thành viên bị bắt giữ với cáo buộc phát tán nội dung khiêu dâm deepfake và các video lạm dụng tình dục thật của 234 nạn nhân suốt 4 năm qua.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!