Gần đây, deepfake dần nổi lên như một hiện tượng, tuy cuốn hút nhưng đồng thời cũng đáng lo ngại không kém khi mà con người dần mất niềm tin vào những gì họ nhìn thấy qua màn hình.
Trong lĩnh vực tài chính, rủi ro từ công nghệ deepfake ngày càng gia tăng và đã bắt đầu nhận được sự chú ý từ các CFO và các nhà lãnh đạo doanh nghiệp. Mức độ chân thật của các hình ảnh và video được tạo ra bởi deepfake ngày càng tinh vi, kéo theo đó là các nguy cơ như giả mạo và gian lận tài chính.
Vậy “deepfake” thực chất là gì? Vì sao nó lại nhận được nhiều sự quan tâm từ cả giới công nghệ lẫn các nhà lãnh đạo tài chính?
Đọc thêm:Phishing (tấn công giả mạo) là gì & Những gì bạn cần biết về Phishing
Công nghệ deepfake là gì?
Định nghĩa của deepfake
Thuật ngữ “deepfake” dùng để chỉ các dạng nội dung đa phương tiện như video, hình ảnh hoặc âm thanh được tạo ra hoặc chỉnh sửa bằng trí tuệ nhân tạo nói chung và deep learning nói riêng. Cụm từ “deepfake” là sự kết hợp giữa “deep learning” và “fake”, mang ý nghĩa nhấn mạnh việc sử dụng các thuật toán tiên tiến để tạo ra nội dung giả tạo nhưng trông y như thật.
Công nghệ đứng sau deepfake cho phép nó tái tạo gần như hoàn hảo các đặc điểm trên khuôn mặt, giọng nói và các cử chỉ của một cá nhân bất kỳ. Nguồn gốc ban đầu của deepfake xuất phát từ các cộng đồng trực tuyến như một công cụ thử nghiệm. Tuy nhiên, ứng dụng của công nghệ này ngày càng lệch khỏi mục tiêu ban đầu của nó và trở thành một mối đe dọa nghiêm trọng với xã hội.
Tìm hiểu thêm:Những gì bạn cần biết về công nghệ Trí tuệ Nhân tạo AI
Về mặt bản chất, deepfake được tạo ra nhằm mang lại những giá trị tích cực nếu được sử dụng đúng cách, ví dụ như trong sản xuất phim ảnh, giáo dục hay các nền tảng giao tiếp số. Tuy nhiên, hiện nay công nghệ deepfake lại bị lợi dụng vào các mục đích xấu như sản xuất các nội dung khiêu dâm nhằm mục đích tống tiền, đánh cắp danh tính, thao túng chính trị và lan truyền thông tin sai lệch trên diện rộng.
Cách deepfake hoạt động
Deepfake được tạo ra nhờ các kỹ thuật máy học tiên tiến, nổi bật nhất là:
– Autoencoders: Đây là các mạng nơ-ron có khả năng nén và tái tạo lại đặc điểm khuôn mặt hoặc giọng nói, giúp hệ thống “học” được cách một người trông như thế nào hoặc phát âm ra sao.
– Generative Adversarial Networks (GANs): Gồm hai mạng nơ-ron hoạt động đối kháng. Trong đó generator có nhiệm vụ tạo ra nội dung giả và discriminator cố gắng xác định nội dung đó là thật hay giả. Qua quá trình “so tài” lặp đi lặp lại, cả hai cùng cải thiện nhằm đem đến kết quả cuối cùng là sản phẩm có độ chân thực cực cao.
Nhờ các mô hình này, deepfake có thể sao chép và điều khiển biểu cảm khuôn mặt, giọng nói và chuyển động của con người với độ chính xác đáng kinh ngạc.
Cơ chế hoạt động của deepfake bắt đầu từ việc thu thập hàng trăm, thậm chí hàng nghìn hình ảnh và mẫu giọng nói của một cá nhân cụ thể. Từ dữ liệu này, mô hình AI sẽ phân tích và nhận diện các đặc điểm cá nhân như hình dạng khuôn mặt, chất giọng, thói quen di chuyển của mắt và cách nói chuyện.
Khi đã được huấn luyện, mô hình AI có thể áp dụng những đặc điểm này lên các nội dung mới. Ví dụ, nó có thể thay thế khuôn mặt của ai đó trong một video bằng khuôn mặt của người được nhắm tới hoặc giả giọng của họ để trò chuyện.
Đọc thêm:Transformers’ và bài học về an ninh mạng doanh nghiệp
“Deepfake CFO”: Bài học từ một CFO không hề tồn tại
Một minh chứng điển hình cho mức độ tinh vi và nguy hiểm của deepfake đã xảy ra vào đầu năm 2024 tại Hồng Kông. Một nhân viên của một tập đoàn đa quốc gia đã tham gia họp online với người mà họ tưởng là Giám đốc Tài chính (CFO) và đồng nghiệp cùng làm chung trong tập đoàn.
Trong suốt cuộc gọi, người này được vị “CFO” và “các đồng nghiệp” đó yêu cầu thực hiện nhiều giao dịch tài chính bí mật với tổng cộng 15 lần chuyển khoản giá trị lên đến 200 triệu đô la Hồng Kông (tương đương 25,6 triệu USD). Điều gây sốc là: khi sự thật được phơi bày, người nhân viên này mới nhận ra rằng không một ai trong cuộc họp đó là người thật. [1]
Theo thông tin từ cảnh sát Hồng Kông, những kẻ lừa đảo đã sử dụng video và âm thanh do AI tạo ra để mạo danh ban lãnh đạo cấp cao của công ty. Bằng cách khai thác các đoạn video và mẫu giọng nói có sẵn, đã được công khai trong quá khứ, nhóm tội phạm đã “hóa thân” và bắt chước biểu cảm khuôn mặt, giọng nói và phong thái của vị CFO tập đoàn với độ chân thực ấn tượng. Đây không chỉ là giả mạo một cá nhân mà là một trường hợp gian lận được dàn dựng có quy mô.
Nhà chức trách mô tả đây là một trong những vụ lừa đảo tinh vi nhất mà họ từng đối mặt, đồng thời cũng là lần đầu tiên họ chứng kiến công nghệ deepfake được sử dụng ở quy mô lớn như vậy. Vụ việc chỉ bị phát hiện khi nhân viên này liên hệ với trụ sở công ty tại Anh để xác nhận và phát hiện các giao dịch hoàn toàn không được ủy quyền.
Không có hệ thống nào bị xâm nhập, cũng không email nào bị đánh cắp. Thay vào đó, kẻ gian đã khai thác niềm tin của con người, sử dụng deepfake như một công cụ để có thể thực hiện hành vi lừa đảo nhằm mục tiêu chiếm đoạt tài sản.
Đọc thêm: Vai trò của mật khẩu trong bảo mật thông tin đã lỗi thời?
Vụ việc là hồi chuông cảnh báo về một mối đe dọa ngày càng lớn: khi công nghệ deepfake ngày càng trở nên phổ biến, khả năng “làm giả” với độ chính xác cao cũng trở nên dễ dàng hơn bao giờ hết.
Nhận diện các dấu hiệu khả nghi
Nghiên cứu do Ayesha Aslam và các cộng sự thực hiện vào năm 2025 cho biết các video deepfake không thực sự có thể bắt chước hoàn toàn các cử chỉ và phong thái tự nhiên của con người. Chính những “thiếu sót” này trở thành tín hiệu cảnh báo cho chúng ta trước khi sự việc vượt khỏi tầm kiểm soát. [2]
Dưới đây là một số dấu hiệu mà bạn nên lưu ý:
– Chớp mắt không tự nhiên: Một trong những đặc điểm dễ nhận biết nhất nằm ở đôi mắt. Deepfake có thể chớp mắt quá ít hoặc vào những thời điểm không tự nhiên, tạo cảm giác máy móc hoặc cứng nhắc, không giống hành vi chớp mắt tự nhiên.
– Chuyển động khuôn mặt không đồng bộ: Hãy chú ý cách miệng, lông mày và má di chuyển, đặc biệt là khi nói. Nếu biểu cảm bị trễ, không khớp với giọng điệu hoặc bị đông cứng bất thường, đó có thể là sản phẩm nhân tạo.
– Vị trí mũi thay đổi: Trong video thật, các đặc điểm trên khuôn mặt di chuyển hài hòa. Ở một số video bị deepfake, mũi có thể hơi lệch hoặc dịch chuyển bất thường, đặc biệt khi nhân vật xoay người hoặc di chuyển.
– Ánh mắt vô hồn hoặc lạc tiêu điểm: Mắt thật có những chuyển động tinh tế và sự tập trung nhất định. Khi bị deepfake, mắt có thể trông cố định, vô hồn hoặc tách rời khỏi các hoạt động xung quanh.
– Ánh sáng và bóng đổ không khớp: Bóng và ánh sáng trên gương mặt deepfake có thể không khớp với môi trường xung quanh. Hãy để ý những vùng sáng hoặc bóng đổ bất thường không phù hợp với nguồn sáng của cảnh quay.
Mặc dù không có dấu hiệu nào ở trên đủ để khẳng định chắc chắn một video là giả, nhưng nếu phát hiện nhiều hơn một dấu hiệu, lúc này bạn nên bật chế độ cảnh giác. Khi công nghệ deepfake tiếp tục phát triển, hãy luôn đặt nghi vấn về những gì chúng ta nhìn thấy dần và chỉ tin tưởng vào những gì được sự kiểm chứng kỹ lưỡng.
Làm sao để tự bảo vệ bản thân?
Deepfake ngày càng tinh vi và khó phát hiện hơn, nhưng điều đó không đồng nghĩa với việc chúng ta hoàn toàn bất lực. Chỉ với vài thói quen đơn giản, bất kỳ ai cũng có thể nâng cao khả năng phân biệt thật – giả. Dưới đây là 3 cách để bạn có thể tự bảo vệ bản thân mình:
Dùng AI để chống lại AI
AI chính là nền tảng tạo nên deepfake, vậy thì tại sao chúng ta không dùng chính AI để chống lại deepfake?
Với kho lưu trữ đồ sộ và tốc độ xử lý thông tin cực nhanh của mình, AI có thể dễ dàng phát hiện các chi tiết nhỏ mà mắt thường khó có thể nhận ra, chẳng hạn như tần suất chớp mắt hay sự thiếu đồng nhất của từng khung hình.
Lúc này, AI đóng vai trò như “phòng chống tuyến đầu” để xử lý khối lượng lớn nội dung với độ chính xác vượt trội. Doanh nghiệp cũng dần phát triển các công cụ như Google SynthID và Intel’s FakeCatcher giúp nhận diện những nội dung đáng ngờ trước khi chúng bị phát tán.
Khi tích hợp những công nghệ này vào quy trình rà soát, doanh nghiệp của bạn có thể tăng tốc độ phản ứng trước các mối đe doạ, đồng thời tăng cường bảo vệ cả con người và tài sản trước các rủi ro từ bên ngoài.
Tăng cường bảo vệ “vật lý”
Mối đe dọa từ deepfake không chỉ là vấn đề công nghệ, mà còn là vấn đề chính sách. Việc củng cố các biện pháp bảo vệ nội bộ như quy trình rõ ràng, đào tạo nhân viên và mua bảo hiểm an ninh mạng sẽ giúp các doanh nghiệp thêm vững tin đương đầu với các nguy cơ, ngay cả khi mối nguy này gần như “vô hình”.
– Nâng cấp quy trình xác minh: Với các giao dịch có giá trị lớn, đặc biệt là những giao dịch được khởi tạo qua điện thoại hoặc email, hãy áp dụng quy trình phê duyệt kép và xác thực hai hoặc nhiều yếu tố. Đồng thời, bổ sung bước xác nhận trực tiếp để ngăn chặn các trường hợp mạo danh bằng deepfake.
– Thắt chặt chính sách: Tổng hợp và xây dựng các kịch bản tấn công do AI gây ra nhằm tích hợp vào chính sách an ninh mạng của doanh nghiệp, bao gồm các định nghĩa, cơ chế báo cáo sự cố và phân công trách nhiệm cho nhân viên để kịp thời phát hiện và xử lý các thông tin bị thao túng.
– Tận dụng bảo hiểm an ninh mạng: Rà soát hợp đồng bảo hiểm an ninh mạng để đảm bảo phạm vi bảo hiểm bao gồm cả các vụ lừa đảo xã hội liên quan đến deepfake và các giao dịch tài chính gian lận. Làm việc với các nhà môi giới để đàm phán điều khoản và hạn mức phù hợp với các rủi ro AI đang ngày càng biến đổi.
Đọc thêm:Cách nhận biết và phòng ngừa email lừa đảo (scam email) hiệu quả
Tư duy “zero trust” – không tin bất kỳ ai!
Một trong những biện pháp phòng vệ đơn giản nhưng hiệu quả nhất chính là sự hiểu biết. Để luôn đi trước deepfake một bước, nhân viên cần được cập nhật thông tin về chúng thường xuyên hơn, không chỉ trong các buổi đào tạo hằng năm.
Đọc thêm:Zero Trust – Đừng Tin Ai, Kể Cả Chính Bạn Khi Thiết Lập An Ninh Cho SaaS
Hãy lồng ghép các chủ đề liên quan đến AI vào các bản tin an ninh, các buổi họp nhóm và cập nhật nội bộ. Tập trung hướng dẫn cách nhận diện nội dung đã bị thao túng, như chuyển động khuôn mặt không tự nhiên hoặc giọng nói có âm sắc lạ. Đồng thời, hãy khuyến khích nhân viên luôn dành thời gian để kiểm tra và xác minh lại mọi thông tin trước khi tiến hành thực hiện.
Hãy nói với nhân viên rằng việc dành thời gian kiểm tra lại là hoàn toàn cần thiết và là một phần của quy trình làm việc. Phần lớn các sai lầm dẫn đến thiệt hại xảy ra khi mọi người xử lý quá nhanh hoặc bị áp lực thời gian. Tin vào trực giác và dành vài giây để đặt câu hỏi với những yêu cầu đáng ngờ có thể là ranh giới giữa an toàn và nguy hiểm.
Để luôn cập nhật về những chuyển động công nghệ mới nhất và tác động của chúng đến cá nhân cũng như doanh nghiệp, hãy đăng ký nhận bản tin từ TRG được phát hành định kỳ mỗi hai tuần ngay hôm nay!
Nguồn tham khảo:




