Công nghệ Deepfake được xây dựng trên nền tảng công nghệ học máy (Machine Learning) mã nguồn mở của hãng công nghệ Google. Sau khi quét các video và ảnh chân dung của một người cụ thể, Deepfake sẽ hợp nhất hình ảnh với video riêng biệt nhờ công nghệ trí tuệ nhân tạo (AI) và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật.

Sự kết hợp giữa video hiện có và video nguồn để tạo ra một video giả mạo hiển thị một người hoặc nhiều người đang thực hiện một hành động tại một sự kiện chưa bao giờ thực sự xảy ra. Càng có nhiều video và hình ảnh gốc, thì AI càng hoạt động chính xác và video giả mạo có độ chân thực càng cao.

Theo một khảo sát của Đại học Công nghệ Nanyang, Singapore (NTU Singapore) với 1.231 người, nhiều người dễ dàng bị đánh lừa bởi các nội dung giả mạo bằng Deepfake. Điều đáng lo ngại hơn là ngay cả những người tự nhận là hiểu biết về Deepfake cũng có thể dễ dàng bị "qua mặt".

Khảo sát của NTU cho thấy 54% số người được hỏi cho biết họ có hiểu biết về Deepfake, nhưng không phải ai cũng phân biệt được các nội dung giả mạo. Trên thực tế, cứ 3 người dân Singapore được khảo sát thì có một người vô tình chia sẻ nội dung Deepfake trên mạng xã hội vì họ tin rằng chúng là thật. Chính những người này cũng từng tuyên bố đã biết về các trò lừa đảo về Deepfake, nhưng chỉ nhận ra sau khi tìm hiểu thông tin.

Cuộc khảo sát cũng cho thấy cứ 5 người thì có 1 người thừa nhận rằng họ thường xuyên gặp các nội dung deepfake khi online. Đây là một xu hướng đáng lo ngại, vì không phải ai cũng biết về sự tồn tại của một công cụ như vậy.

"Các video tin tức giả mạo xuất bản dưới vỏ bọc của các nguồn chính thống, mạo danh khuôn mặt của những người nổi tiếng để đánh lừa mọi người. Chúng được giả mạo một cách tinh vi hơn rất nhiều so với trước đây", Phó Giáo sư Saifuddin Ahmed, người đứng đầu nhóm nghiên cứu của NTU, cho biết.

Sẽ ra sao khi các phần mềm Deepfake lan tràn trên mạng và bất kể ai cũng có thể tạo ra một video Deepfake rồi đăng lên mạng xã hội? Deepfake có thể được sử dụng cho nhiều mục đích khác nhau như làm mất uy tín, sỉ nhục, quấy rối hoặc chơi xấu và dùng vào mục đích tống tiền người khác.

Hiện tại, việc sử dụng Deepfake chủ yếu là cho nội dung khiêu dâm. Tuy nhiên, nội dung khiêu dâm chỉ là một trong số rất nhiều vấn đề mà Deepfake đặt ra. Deepfake bắt đầu lan sang lĩnh vực chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực. Một khi đã xuất hiện trên mạng, thì không có cách gì để kiểm soát sự phát tán của những đoạn video này và hệ lụy sau đó.

Phó Giáo sư Saifuddin Ahmed cũng lo ngại rằng việc công nghệ AI ngày càng phát triển đang khiến các video deepfake ngày càng khó phân biệt. "Deepfake trước đây chỉ dùng cho các nội dung khiêu dâm. Tuy nhiên, bây giờ nó còn được sử dụng để truyền bá tin tức, kích động nỗi sợ hãi và bạo lực cũng như khiến mọi người nghi ngờ mọi thứ", Ahmed chia sẻ.

Ngày 17/4/2018, trên mạng từng xuất hiện đoạn video cho thấy một người giống với cựu Tổng thống Mỹ Barack Obama sử dụng những lời lẽ không hay để chỉ trích đương kim Tổng thống Donald Trump. Mặc dù công chúng sau đó phát hiện video này không phải sự thật, nhưng đoạn phim trên đã được lan truyền rất nhanh chóng và gây ra những hậu quả đáng tiếc.

Bên cạnh đó, tốc độ phát triển của nội dung deepfake trên các nền tảng trực tuyến cũng đáng lo ngại. Theo Sensity, một công ty chuyên nghiên cứu Deepfake, có tới 49.081 nội dung deepfake đã được phát hiện trên Internet trong 6 tháng đầu năm 2020, gấp đôi so với năm ngoái. 

Rõ ràng, dù mới phát triển vài năm gần đây, nhưng Deepfake đã trở nên ngày càng phổ biến, gây ra những tác hại khôn lường đến đời sống xã hội. Tại Việt Nam, không ít người vẫn vô tư chia sẻ những bức ảnh cá nhân, với khuôn mặt rõ nét lên mạng xã hội ở chế độ công khai, với suy nghĩ chủ quan cho rằng, Deepfake là chuyện xa vời, xảy ra ở đâu đó chứ không ảnh hưởng tới mình.

Tuy nhiên, với Deepfake bất kỳ ai cũng có thể biến bức ảnh, bản ghi âm, video thành những đoạn phim giả mạo như công cụ để truyền bá những thông tin sai lệch.

Do đó, khi chưa có những biện pháp hữu hiệu để đối phó với vấn nạn này, nhằm hạn chế đến mức thấp nhất khả năng bị làm giả danh tính, trước mắt, mỗi cá nhân hãy tự bảo vệ mình, tránh trở thành nạn nhân của công nghệ trên bằng cách khống chế số lượng người có thể xem video và hình ảnh của chính mình.

 

BBT

Bài viết, video, hình ảnh đóng góp cho chuyên mục vui lòng gửi về bbtwebsite.abei@mic.gov.vn

Lên đầu