Trong thời đại công nghệ số phát triển mạnh mẽ, bên cạnh những tiện ích đáng kể cho cuộc sống, chúng ta cũng phải đối mặt với các hình thức lừa đảo mới ngày càng tinh vi. Đáng chú ý trong số đó là công nghệ Deepfake và Deepvoice – những công cụ trí tuệ nhân tạo có khả năng tạo ra hình ảnh, video và giọng nói giả mạo với độ chân thực cao đến mức khó phân biệt với thật.
Theo thống kê của Cục An toàn thông tin, lừa đảo sử dụng công nghệ Deepfake đã trở thành một trong 24 hình thức lừa đảo phổ biến nhất tại Việt Nam, gây thiệt hại nghiêm trọng về tài chính và tinh thần cho người dân. Bài viết này sẽ giúp quý vị hiểu rõ về công nghệ này, cách nhận biết và phòng tránh những cuộc gọi Deepvoice cũng như các video giả mạo nhằm bảo vệ bản thân và người thân trong thời đại số.
Tổng quan về công nghệ Deepfake và Deepvoice
Khái niệm và nguyên lý hoạt động
Deepfake được ghép từ hai từ “Deep learning” (học sâu) và “Fake” (giả mạo). Đây là công nghệ sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh, video giả mạo với độ chân thực cao. Trong khi đó, Deepvoice (hay DeepFake Voice) là công nghệ chuyên về tạo ra giọng nói giả mạo.
Nguyên lý hoạt động của các công nghệ này dựa trên thuật toán học sâu để “học” và bắt chước các đặc điểm của khuôn mặt hoặc giọng nói từ các mẫu có sẵn. Sau đó, AI sẽ tái tạo lại khuôn mặt và giọng nói đó để phù hợp với biểu cảm, cử chỉ của người khác, tạo ra nội dung giả mạo khó phân biệt với thật.
Từ công nghệ giải trí đến công cụ lừa đảo
Ban đầu, Deepfake chỉ được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” mang tính giải trí, cho phép người dùng thay đổi khuôn mặt của mình vào những nhân vật trong các bộ phim nổi tiếng. Tuy nhiên, từ một công nghệ phục vụ giải trí, Deepfake đã trở thành công cụ lừa đảo nguy hiểm khi rơi vào tay những đối tượng xấu.
Theo báo cáo từ Sumsub, số lượng deepfake được phát hiện trong lĩnh vực tiền điện tử đã tăng 217% từ quý 1 năm 2023 đến quý 1 năm 2024. Điều này cho thấy mức độ gia tăng đáng báo động của việc sử dụng công nghệ này cho mục đích bất chính.
Thực trạng lừa đảo sử dụng công nghệ AI tại Việt Nam
Số liệu đáng báo động
Việt Nam đang chứng kiến sự gia tăng mạnh mẽ của các vụ lừa đảo sử dụng công nghệ Deepfake và Deepvoice. Theo thống kê của Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao (Bộ Công an), năm 2023 đã ghi nhận hơn 9.000 vụ lừa đảo trực tuyến, tăng 30% so với năm trước đó, trong đó có nhiều vụ sử dụng công nghệ AI để giả mạo.
Đặc biệt, trong những dịp lễ tết như Tết Nguyên đán, số lượng vụ lừa đảo có xu hướng tăng cao khi các đối tượng tận dụng tâm lý bận rộn, lo lắng của người dân để thực hiện hành vi lừa đảo.
Đối tượng nhắm đến
Các đối tượng lừa đảo thường nhắm đến những người có mối quan hệ thân thiết với nạn nhân như gia đình, bạn bè, đồng nghiệp. Chúng lợi dụng thông tin cá nhân được chia sẻ công khai trên mạng xã hội để thu thập dữ liệu, làm tư liệu cho việc tạo ra những nội dung giả mạo.
Đáng chú ý, người lớn tuổi ít tiếp xúc với công nghệ và những người quá tin tưởng vào các mối quan hệ thân thiết là những đối tượng dễ bị tấn công nhất.
Các hình thức lừa đảo phổ biến sử dụng Deepfake/Deepvoice
Giả mạo người thân, bạn bè vay tiền
Đây là hình thức phổ biến nhất khi các đối tượng hack tài khoản mạng xã hội hoặc tạo tài khoản giả mạo những người quen của nạn nhân. Sau đó, chúng sử dụng công nghệ Deepfake/Deepvoice để tạo ra cuộc gọi video hoặc âm thanh giống hệt người thật, với nội dung thường là xin vay tiền vì lý do khẩn cấp.
Ví dụ điển hình là trường hợp chị L. ở phường Mỹ Xuyên, TP. Long Xuyên đã bị lừa 50 triệu đồng khi nhận được tin nhắn từ tài khoản Facebook giả mạo chị gái, sau đó là cuộc gọi video với hình ảnh giống hệt chị gái mình nhờ vay tiền vì gặp sự cố y tế khi đang ở nước ngoài.
Giả mạo nhân viên cơ quan chức năng
Các đối tượng mạo danh cán bộ công an, viện kiểm sát hoặc tòa án, sử dụng công nghệ Deepfake để tạo ra các cuộc gọi video có hình ảnh và giọng nói giống như thật. Trong các cuộc gọi này, chúng thường đe dọa nạn nhân liên quan đến các vấn đề pháp lý và yêu cầu chuyển tiền để “giải quyết vấn đề”.
Tống tiền bằng hình ảnh, video nhạy cảm
Nhiều trường hợp đã bị các đối tượng sử dụng công nghệ AI để ghép khuôn mặt vào các hình ảnh, video clip nhạy cảm, sau đó đe dọa sẽ phát tán cho người thân, bạn bè nếu không chuyển tiền. Phương thức này đặc biệt nguy hiểm vì đánh vào tâm lý sợ hãi, lo lắng về danh dự của nạn nhân.
Theo thông tin từ Công an tỉnh Hà Tĩnh, đây là một trong những hình thức lừa đảo phổ biến hiện nay, xuất hiện tại nhiều địa phương trên cả nước. Kẻ gian thường đánh vào tâm lý những người “có tật giật mình” hoặc yếu bóng vía để thực hiện hành vi tống tiền.
Lừa đảo đầu tư tài chính và tiền điện tử
Các đối tượng lừa đảo sử dụng công nghệ Deepfake để tạo ra video giả mạo các nhân vật nổi tiếng, chuyên gia tài chính đang quảng bá cho một dự án đầu tư, sàn giao dịch tiền điện tử với lợi nhuận hấp dẫn nhằm dụ dỗ nạn nhân tham gia.
Theo thông tin từ Trust Wallet, đã có nhiều vụ lừa đảo sử dụng video deepfake có sự tham gia của các lãnh đạo công nghệ như Tim Cook để quảng bá các kế hoạch lừa đảo tiền điện tử.
Dấu hiệu nhận biết cuộc gọi video và giọng nói giả mạo
Những bất thường về hình ảnh trong cuộc gọi video
Mặc dù công nghệ Deepfake đã phát triển rất tinh vi, nhưng vẫn có những dấu hiệu có thể giúp nhận biết một video giả mạo:
- Chất lượng hình ảnh kém: Các cuộc gọi video giả mạo thường có chất lượng hình ảnh kém, mờ, không rõ nét. Đây là chiêu trò cố tình của kẻ lừa đảo để che giấu những điểm không tự nhiên trong video deepfake.
- Chuyển động không tự nhiên: Các cử động của mắt, môi, đầu thường không đồng bộ hoặc có sự giật, trễ trong video giả mạo. Đặc biệt chú ý đến miệng và mắt vì đây là những khu vực khó tạo hiệu ứng tự nhiên nhất.
- Biểu cảm không phù hợp: Khuôn mặt trong video deepfake thường có biểu cảm không phù hợp với nội dung cuộc gọi hoặc thiếu những cử chỉ, nét mặt đặc trưng của người thật.
- Ranh giới khuôn mặt mờ hoặc biến dạng: Khi quan sát kỹ, quý vị có thể thấy ranh giới giữa khuôn mặt và phần còn lại của hình ảnh có sự biến dạng hoặc không tự nhiên.
Những bất thường về giọng nói
Công nghệ Deepvoice tuy đã phát triển, nhưng vẫn có những dấu hiệu để nhận biết:
- Giọng nói thiếu cảm xúc: Giọng nói được tạo bởi AI thường thiếu sự biến đổi về cảm xúc tự nhiên mà con người có khi nói chuyện.
- Phát âm không tự nhiên: Những từ ngữ địa phương, biệt ngữ, hay cách phát âm đặc trưng của người thật có thể không được mô phỏng chính xác.
- Độ trễ và gián đoạn bất thường: Trong cuộc gọi giả mạo, thường có độ trễ hoặc gián đoạn bất thường khi AI đang xử lý và tạo ra phản hồi.
- Thiếu âm thanh nền tự nhiên: Cuộc gọi thật thường có âm thanh nền như tiếng xe cộ, tiếng nói chuyện, tiếng gió… Cuộc gọi giả mạo thường có nền âm thanh quá tĩnh lặng hoặc có tiếng ồn không phù hợp với tình huống được mô tả.
Ngữ cảnh và nội dung cuộc gọi
Ngoài những dấu hiệu kỹ thuật, nội dung và ngữ cảnh cuộc gọi cũng là chìa khóa quan trọng để nhận biết lừa đảo:
- Tính khẩn cấp cao: Các cuộc gọi lừa đảo thường tạo ra tình huống khẩn cấp, đòi hỏi phải hành động ngay lập tức, không có thời gian suy nghĩ hay xác minh.
- Yêu cầu tiền bạc: Hầu hết các cuộc gọi deepfake lừa đảo đều có mục đích cuối cùng là yêu cầu chuyển tiền với những lý do như tai nạn, bệnh tật, hoặc các vấn đề khẩn cấp khác.
- Từ chối gọi điện theo cách thông thường: Đối tượng lừa đảo thường từ chối khi đề nghị gọi lại theo số điện thoại thông thường, hoặc gặp trực tiếp với lý do đang ở xa, không tiện nói chuyện,…
- Cách xưng hô bất thường: Như trường hợp chị Lê Thị Tây Nguyên ở Quảng Trị đã phát hiện ra cuộc gọi giả mạo nhờ cách xưng hô của đối tượng khi gọi chị là “em ơi”, trong khi giữa hai chị em thường gọi nhau bằng tên thân mật.
Cách phòng tránh lừa đảo Deepfake/Deepvoice
Hạn chế chia sẻ thông tin cá nhân trên mạng xã hội
Các đối tượng lừa đảo cần thu thập hình ảnh, giọng nói của nạn nhân để tạo ra nội dung giả mạo. Vì vậy, hạn chế chia sẻ hình ảnh, video cá nhân trên các nền tảng mạng xã hội là biện pháp phòng ngừa hiệu quả. Đồng thời, điều chỉnh cài đặt quyền riêng tư để kiểm soát người có thể xem nội dung của quý vị.
Xác minh đa kênh khi nhận cuộc gọi đáng ngờ
Khi nhận được cuộc gọi video hoặc tin nhắn từ người quen với nội dung bất thường, đặc biệt là yêu cầu chuyển tiền, quý vị nên:
- Tạm dừng cuộc gọi và liên hệ trực tiếp với người đó qua số điện thoại thông thường đã biết.
- Đặt câu hỏi cá nhân mà chỉ người thật mới biết câu trả lời, không phải những thông tin có thể tìm thấy trên mạng xã hội.
- Không vội vàng hành động theo yêu cầu dù tình huống có vẻ khẩn cấp đến đâu. Đây là thủ đoạn phổ biến của kẻ lừa đảo nhằm khiến nạn nhân mất cảnh giác.
Cập nhật kiến thức về công nghệ và thủ đoạn lừa đảo mới
Thường xuyên cập nhật thông tin về các thủ đoạn lừa đảo mới từ các nguồn tin cậy như cơ quan công an, các trang web an ninh mạng uy tín. Chia sẻ kiến thức này với người thân, đặc biệt là người cao tuổi, để mọi người cùng nâng cao cảnh giác.
Sử dụng các công cụ bảo mật
Sử dụng các giải pháp bảo mật như:
- Xác thực hai yếu tố cho các tài khoản mạng xã hội và tài khoản ngân hàng
- Phần mềm diệt virus và chống phần mềm độc hại cập nhật thường xuyên
- Thận trọng khi nhấp vào các liên kết không rõ nguồn gốc
Xử lý khi phát hiện bị lừa đảo
Báo cáo ngay với cơ quan chức năng
Nếu nhận ra mình đang bị lừa đảo bằng cuộc gọi Deepfake hoặc Deepvoice, quý vị nên:
- Ngừng cuộc gọi ngay lập tức
- Báo cáo sự cố cho cơ quan công an gần nhất
- Cung cấp đầy đủ thông tin, bằng chứng liên quan đến vụ việc
Thông báo cho người thân và bạn bè
Nếu tài khoản mạng xã hội của quý vị bị xâm nhập hoặc hình ảnh, giọng nói của quý vị bị sử dụng để lừa đảo, hãy nhanh chóng thông báo cho người thân, bạn bè để tránh việc họ trở thành nạn nhân tiếp theo.
Bảo vệ tài khoản ngân hàng và tài khoản mạng xã hội
Nếu đã vô tình cung cấp thông tin tài khoản ngân hàng hoặc đã chuyển tiền cho đối tượng lừa đảo:
- Liên hệ ngay với ngân hàng để tạm khóa tài khoản
- Thay đổi mật khẩu tài khoản mạng xã hội và email
- Bật xác thực hai yếu tố nếu chưa sử dụng
Ví dụ điển hình và bài học kinh nghiệm
Trường hợp 1: Giả mạo giọng nói người thân
Anh T. ở phường Mỹ Phước, TP Long Xuyên đã nhận cuộc gọi với giọng nói giống hệt con trai, thông báo bị tai nạn và cần gấp tiền viện phí. Lo lắng, anh đã chuyển khoản một số tiền lớn. Chỉ sau khi không thể liên lạc được với “con trai”, anh mới phát hiện mình bị lừa đảo bởi công nghệ Deepvoice.
Bài học: Luôn xác minh thông tin qua nhiều kênh khác nhau, đặc biệt khi liên quan đến vấn đề tài chính. Trong trường hợp này, một cuộc gọi trực tiếp đến số điện thoại của con trai đã biết có thể giúp anh T. tránh bị lừa.
Trường hợp 2: Tống tiền bằng video nhạy cảm
Một nữ sinh tại huyện Thạch Hà, Hà Tĩnh đã bị đối tượng sử dụng công nghệ AI để cắt ghép, chỉnh sửa hình ảnh khuôn mặt của cô vào các hình ảnh, video clip nhạy cảm, sau đó đe dọa sẽ phát tán nếu không chuyển tiền. May mắn là gia đình đã phát hiện sự bất thường trong tâm lý của cô và nhờ cơ quan công an hỗ trợ kịp thời.
Bài học: Nếu trở thành nạn nhân của tống tiền deepfake, điều quan trọng là không nên hoảng sợ và chuyển tiền theo yêu cầu. Hãy tìm kiếm sự hỗ trợ từ gia đình và báo cáo ngay với cơ quan chức năng.
Trường hợp 3: Nhận biết kịp thời cuộc gọi giả mạo
Chị Lê Thị Tây Nguyên ở huyện Đakrong, tỉnh Quảng Trị nhận được cuộc gọi từ kẻ xấu giả mạo người chị ruột, nội dung muốn mượn 20 triệu đồng. Mặc dù giọng nói, khuôn mặt y đúc người thật, và tài khoản ngân hàng cung cấp cũng trùng hợp với người chị ruột, nhưng chị Nguyên đã phát hiện đây là cuộc gọi giả mạo nhờ cách xưng hô bất thường của đối tượng.
Bài học: Chú ý đến những chi tiết nhỏ như cách xưng hô, ngôn ngữ cơ thể, hay những thông tin chỉ người thân thực sự biết có thể giúp phát hiện cuộc gọi giả mạo.
Kết luận
Công nghệ Deepfake và Deepvoice là minh chứng cho sự phát triển mạnh mẽ của trí tuệ nhân tạo, nhưng cũng là công cụ nguy hiểm trong tay những kẻ lừa đảo. Trong thời đại kỹ thuật số, nguyên tắc “Mắt thấy tai nghe chưa chắc thật – Xác minh lại trước khi tin tưởng” trở nên quan trọng hơn bao giờ hết.
Để bảo vệ bản thân và người thân khỏi những chiêu trò lừa đảo tinh vi này, mỗi người cần nâng cao cảnh giác, trang bị kiến thức về công nghệ, thường xuyên cập nhật thông tin về các phương thức lừa đảo mới, và quan trọng nhất là luôn xác minh thông tin qua nhiều kênh khác nhau trước khi đưa ra quyết định, đặc biệt khi liên quan đến tài chính.
Lừa đảo công nghệ cao ngày càng tinh vi, nhưng với sự cảnh giác và hiểu biết, chúng ta hoàn toàn có thể phòng tránh và bảo vệ mình khỏi những cạm bẫy này. Hãy nhớ rằng, trong thời đại số hiện nay, “thấy tận mắt, nghe tận tai” đã không còn là phương châm đáng tin cậy.