Cuối tháng 2 vừa qua, hashtag #DeepNostalgia trở thành trending trên Twitter: trang web MyHeritage tung ra một công cụ mới gọi là Deep Nostalgia, chạy bằng trí tuệ nhân tạo, biến hình chụp thành video1. Quăng vào hình ảnh tĩnh của bất kỳ ai, từ người nổi tiếng như Charles Dickens, Frederick Douglass, Abraham Lincoln, Emily Dickinson, Mark Twain… tới những hình ảnh ố vàng của người thường—Deep Nostalgia có thể biến mọi hình chụp thành video, khiến người trong ảnh nghiêng đầu, chớp mắt, nhoẻn cười v.v.  Không chỉ hình chụp người, Deep Nostalgia cũng có thể hô biến hình chụp tượng và tranh vẽ—tôi cũng thử với tranh vẽ William Shakespeare, Nữ hoàng Elizabeth đệ nhất, và vài tác phẩm khác.

Deep Nostalgia tất nhiên vẫn còn vụng về thô sơ, nhưng đây chỉ là khởi đầu.

Vài ngày sau đó Twitter đưa lên một chủ đề liên quan: trên TikTok xôn xao vài video về ngôi sao Hollywood Tom Cruise, trong đó có một video đang chơi golf, có hàng triệu lượt xem và khiến nhiều người nghĩ Tom Cruise đã tham gia TikTok—tuy nhiên, đó không phải là Tom Cruise, các video này đều là deepfake2.

Deepfake là gì?

Chữ deepfake ghép từ 2 chữ “deep learning” (học sâu) và “fake” (giả tạo). Deepfake video là video có hình ảnh người này được thay thế bằng người khác—chuyện giả hình ảnh và video tất nhiên không có gì mới, nhưng deepfake tận dụng kỹ thuật từ trí tuệ nhân tạo và công nghệ học máy (machine learning) và có khả năng đánh lừa cao.

Công nghệ deepfake đầu tiên được công chúng biết tới năm 2017, với một loạt video giả về cựu Tổng thống Mỹ Barack Obama, nhìn gần như thật3.

Deepfake hiện nay chưa quá phổ biến, nhưng đã được sử dụng cho film khiêu dâm, thay mặt mũi diễn viên “film người lớn” bằng sao Hollywood.

Một số công cụ khác đáng lo ngại

Cùng năm 2017, Lyrebird giới thiệu một công cụ có khả năng “nghe” một đoạn ghi âm thật chừng một phút và tạo một đoạn audio giả với cùng giọng nói4.

Năm 2019, báo chí đưa tin về một phần mềm tên là DeepNude. Cũng dùng trí tuệ nhân tạo và công nghệ tương tự deepfake, DeepNude “lột trần” phụ nữ, chỉnh sửa hình ảnh phụ nữ thành ảnh nude (gọi là “lột trần” chứ DeepNude tất nhiên không phải là một phần mềm X-ray, nó chỉ thay thế hình ảnh có quần áo bằng hình ngực và bộ phận sinh dục của người khác hoặc hình ảnh tổng hợp bằng trí tuệ nhân tạo, nhưng đáng chú ý là DeepNude chỉ dùng cho ảnh phụ nữ)5.

Cả hai đều ở mức độ thô sơ và đa phần vẫn thấy rõ là giả, nhưng đôi khi một số cái có thể rất giống thật. Chỉ cần sự phát triển và khả năng hiện nay của phần mềm Photoshop và kỹ thuật phông xanh (green screen) và công nghệ mô phỏng hình ảnh bằng máy tính (computer-generated imagery, gọi tắt CGI) trong điện ảnh là có thể đoán được deepfake và các công nghệ tương tự có thể tiến xa tới mức nào.

Ðiều này có nghĩa gì cho tương lai và vấn đề fake news?

Trong vài năm gần đây, vấn đề fake news (tin vịt hay tin giả) là vấn đề lớn và được nói đến nhiều—fake news gây xao nhãng, chia rẽ xã hội, tác động đến bầu cử, và phá hoại nền dân chủ.

Nếu công nghệ như deepfake hoặc phần mềm của Lyrebird phát triển và trở thành phổ biến, theo tôi nó sẽ dẫn đến 3 hậu quả.

Thứ nhất, fake news sẽ càng lúc càng nhiều hơn và tràn lan hơn, đặc biệt khi công nghệ đạt tới mức không thể phân biệt được với hình ảnh hoặc âm thanh thật. Deepfake có thể bị sử dụng cho nhu cầu chính trị, hoặc dùng để bôi bẩn ai đó. Như đã nói, hiện nay với công nghệ deepfake, nhiều diễn viên Hollywood đã có mặt trong film khiêu dâm, dù đó không phải là họ.

Thứ hai, nó có thể đẩy người ta về hướng ngược lại, khiến người ta càng lúc càng hoài nghi tất cả, nghĩ mọi thứ đều có thể là giả, và khiến xã hội càng chia rẽ hơn. Người nghi ngờ hình ảnh và audio nói chung có thể thấy hình thật nhưng vẫn nghĩ là xạo. Người không tin truyền thông chính thống có thể chuyển sang đọc thông tin bậy bạ trên internet và rơi vào bẫy thuyết âm mưu.

Thứ ba, lâu nay video hoặc một đoạn ghi âm có thể làm bằng chứng người ta đã nói hoặc làm gì đó, nhưng nếu deepfake tiếp tục phát triển, người ta đôi khi có thể chối và bảo video chỉ là deepfake, không phải là bằng chứng.

Bảo Huân

Có nên lo lắng hoảng loạn không?

Theo tôi, nên ý thức về deepfake và các công nghệ tương tự và có thể lo ngại về fake news trong tương lai. Nhưng hoảng loạn thì chưa cần thiết.

Thói bịa chuyện và chỉnh sửa hình ảnh đã có từ lâu, không có gì mới. Chuyện mạo danh, dùng tên giả, hay photoshop hình chụp có đầy trên mạng từ vài chục năm nay. Bản thân người Việt cũng biết từ chiến tranh Việt Nam là hình ảnh dù không photoshop cũng không thể hoàn toàn tin cậy được vì có thể thể hiện chỉ một nửa sự thật.

Khi công nghệ phát triển hướng này, có thể có cái khác phát triển hướng ngược lại, để đối phó. Chẳng hạn Google có chức năng tìm hình chiều ngược lại (reverse image search), tức là tìm kiếm bằng hình thay vì tìm bằng chữ. Một số người có thể dùng hình người khác để mạo danh hoặc lừa tình, nhưng chỉ cần đưa hình vào reverse image search là thấy được sự thật. Khá nhiều lần tôi đưa vào Google hình ảnh đã photoshop và nó hiện ra ảnh gốc.

Tương tự, có những phần mềm tạo hình giả nhìn y như ảnh chụp màn hình (screenshot) một câu tweet trên Twitter, một số người có thể viết câu gì đó bị ném đá, sau đó xóa đi và tuyên bố screenshot kia là giả, nhưng trang web như archive.is là một kho lưu trữ, có thể lưu bản chụp một trang web hay đơn giản là một câu tweet trước khi nó bị xóa. Một screenshot có thể bị nghi ngờ, nhưng một đường link từ archive.is là không thể chối cãi.

Ðể đối phó với fake news, cũng có những người, những trang web làm nhiệm vụ factcheck.

Cần làm gì?

Cách đối phó với fake news, như mọi người vẫn thường nói, là luôn kiểm tra nguồn, luôn factcheck, đọc nhiều nguồn, so sánh đối chiếu, luôn tìm nguồn tiếng Anh nếu đọc tin tiếng Việt (không phải về Việt Nam), dùng công cụ reverse image search của Google nếu là hình ảnh, đọc comment, cần cẩn thận và có một chút hoài nghi nhất định nhưng không nên xem tất cả là dối trá như nhau v.v.

Quan trọng hơn hết, theo tôi trường học nên dạy cách nhận diện và đối phó với fake news—chẳng hạn Phần Lan bắt đầu từ tiểu học, dạy học sinh có tư duy phê phán, dạy học sinh cách phân tích và đánh giá tin tức dù xuất hiện từ bất kỳ nơi nào, và cho học sinh nhận ra cách ngôn từ có thể bị sử dụng để làm rối, đánh lừa, hoặc gây hiểu nhầm như thế nào6.

Fake news trong tương lai sẽ càng tăng chứ không giảm đi. Cách của Phần Lan, theo tôi, là cách tiếp cận đúng.

DN

1: https://twitter.com/hashtag/DeepNostalgia?src=hashtag_click

2: https://twitter.com/i/events/1366445898201505795

3: https://www.youtube.com/watch?v=AmUC4m6w1wo

4: https://futurism.com/this-new-tech-can-copy-anyones-voice-using-just-a-minute-of-audio

5: https://www.theverge.com/2019/6/27/18760896/deepfake-nude-ai-app-women-deepnude-non-consensual-pornography

6: https://www.theguardian.com/world/2020/jan/28/fact-from-fiction-finlands-new-lessons-in-combating-fake-news