Kể từ khi công nghệ tạo video bằng Trí tuệ nhân tạo (AI), như công cụ Sora của OpenAI, phát triển vượt bậc, việc phân biệt đâu là video thật, đâu là video giả mạo (Deepfake) đã trở thành một kỹ năng sống còn trong thời đại số.
Deepfake đang được sử dụng để lừa đảo, mạo danh và phát tán tin tức giả mạo với mức độ chân thực chưa từng có.

Video được tạo bằng Sora có dấu chìm khẳng định được tạo bằng AI
Vậy, làm thế nào để người dùng thông thường có thể tự bảo vệ mình và nhận ra các sản phẩm giả mạo này?Dưới đây là hai phương pháp đơn giản nhưng cực kỳ hiệu quả mà có thể sử dụng để kiểm tra.
Tìm kiếm "dấu hiệu" của Sora (Watermark)
Watermark (dấu chìm) là dấu hiệu nhận biết trực quan và dễ thấy nhất mà các công ty công nghệ lớn như OpenAI buộc phải áp dụng để chống lại việc lạm dụng AI.
Dấu hiệu: Các video được tạo và xuất trực tiếp từ ứng dụng Sora (trên iOS) thường có một biểu tượng đám mây màu trắng chuyển động quanh các góc của video. Nó tương tự như logo của TikTok hay các nền tảng khác.
Mức độ tin cậy: Thấp. Đây là dấu hiệu dễ bị kẻ xấu lợi dụng nhất.
Kẻ tấn công có thể dễ dàng cắt xén (crop) hoặc xóa bỏ (remove) watermark này bằng các phần mềm chỉnh sửa video đơn giản.
Ngay cả khi dấu chìm này là động, nó vẫn có thể bị các công cụ chuyên dụng xử lý.
Lời khuyên: Dấu chìm chỉ nên được xem là gợi ý ban đầu. Nếu bạn thấy dấu chìm Sora, đó chắc chắn là video AI. Nếu không thấy, bạn chưa thể kết luận đó là video thật.
Kiểm tra "lý lịch" của video (Metadata)
Đây là phương pháp quan trọng nhất và đáng tin cậy nhất để xác định nguồn gốc của video. Siêu dữ liệu là thông tin tự động mà thiết bị hoặc phần mềm gắn vào nội dung số khi nó được tạo ra, giống như lý lịch trích ngang của tệp tin.
Thông tin này bao gồm loại thiết bị quay (iPhone, Canon...), địa điểm, thời gian quay, và quan trọng nhất đó là nguồn gốc được sinh ra. Vì OpenAI là thành viên sáng lập của Liên minh Chứng thực Nội dung (C2PA), mọi video Sora tạo ra đều được bắt buộc gắn Siêu dữ liệu C2PA đặc biệt.
Cách kiểm tra siêu dữ liệu (Không cần cài phần mềm): Có thể dùng công cụ trực tuyến do C2PA cung cấp để "đọc" lý lịch của video.
Truy cập trang web: Mở trình duyệt và vào địa chỉ verify.contentauthenticity.org.
Tải video lên: Nhấn vào nút để tải tệp video (hoặc hình ảnh) mà bạn muốn kiểm tra lên trang web này.
Kết quả tiết lộ nguồn gốc AI: Nếu video là sản phẩm của Sora, phần tóm tắt sẽ hiển thị rõ ràng thông tin đó. Bạn sẽ thấy dòng chữ xác nhận nội dung được "do OpenAI phát hành" (Issued by OpenAI). Điều này xác nhận video là sản phẩm nhân tạo, không phải được quay bằng máy ảnh/điện thoại thực tế.
Trong môi trường số mà ranh giới thật - giả đang mờ dần, hãy luôn nhớ quy tắc của chuyên gia an toàn thông tin:
Đừng vội tin: Đừng bao giờ tin tưởng tuyệt đối vào những gì bạn thấy trên mạng xã hội, đặc biệt là các video gây sốc.
Luôn kiểm tra kép: Nếu nghi ngờ, hãy dành thêm 30 giây để kiểm tra Metadata của video - Việc chủ động kiểm tra này là chìa khóa để bạn không bị Deepfake lừa đảo, mạo danh hoặc phát tán thông tin sai lệch.
Tuấn Minh
