CỔNG THÔNG TIN VÀ ĐẦU TƯ QUỐC TẾ
(TBTCO) - Cơ quan công an đã có cảnh báo về hành vi tội phạm mới trong lợi dụng sự phát triển của khoa học công nghệ để lừa đảo. Với công nghệ AI nhân tạo, các đối tượng "chế" giọng nói, video Deepfake, hình ảnh của người thân bị hại, thậm chí còn giả danh công an để lừa đảo chiếm đoạt tài sản. Đây là những chiêu thức mới, khiến nhiều người "sập bẫy".
Dù đã được cảnh báo các thủ đoạn lừa đảo chuyển tiền qua mạng xã hội, nhưng ít ai ngờ đến việc gọi video call xác thực người nhà là cách an toàn nhất mà giờ cũng bị làm giả. Nhận được cuộc gọi, nhìn thấy hình ảnh và nghe được giọng nói quen thuộc của người thân qua video call, nhiều người vẫn bị lừa chuyển tiền. Tuy nhiên, đây chỉ là giả mạo, không phải là người thật và được tạo ra bởi công nghệ Deepfake.
Người dân cần nâng cao cảnh giác trước nhiều chiêu trò lừa đảo qua mạng.Theo cơ quan công an thủ đoạn này các đối tượng lừa đảo “nâng cấp” từ những dòng tin nhắn hỏi vay tiền bạn bè, người thân vốn dĩ đã được đa số người dân nhận biết, cảnh giác. Bằng cách sử dụng công nghệ Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể thay đổi khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc do đó đã có không ít nạn nhân bị sập bẫy.
Theo ông Phan Quang Vinh - Trung tá, Đội trưởng Đội Cảnh sát Phòng chống tội phạm có yếu tố nước ngoài, sử dụng công nghệ cao để lừa đảo, Phòng Cảnh sát hình sự, Công an TP. Hà Nội, một trong những thủ đoạn mới các đối tượng đã bắt đầu sử dụng, đó chính là giả giọng nói, khuôn mặt của người thân bị hại để gọi điện bằng hình ảnh lừa đảo.
Trường hợp bị lừa mới đây bằng thủ đoạn Deepfake là một phụ nữ sinh sống ở quận Long Biên, TP. Hà Nội. Khi mở facebook, chị V.T.M nhận được tin nhắn của một người bạn thân đang sinh sống ở nước ngoài hỏi chuyển nhờ số tiền 75 triệu đồng vào tài khoản. Nghĩ bạn cần, nên chị M đã không ngại ngần chuyển tiền theo hướng dẫn.
Chị M cho biết, chị cũng đã cảnh giác, khi nhận được tin nhắn của bạn hỏi vay tiền, chị còn cẩn thận gọi video lại để kiểm tra thì có thấy hình ảnh của người bạn mình. Đến tối, trên trang facebook cá nhân của người bạn đăng dòng thông báo việc bị kẻ gian hack nick facebook để hỏi vay tiền bạn bè, chị M có gọi điện lại thì người bạn này xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội, dùng công nghệ AI cắt ghép hình ảnh, giọng nói để lừa đảo.
Giả danh cả công an để lừa đảoTừ đầu tháng 4/2023 đến nay, cơ quan công an tại nhiều tỉnh, thành phố như Hà Nội, TP. Hồ Chí Minh, Đà Nẵng cho biết đã tiếp nhận thông tin trình báo của người dân bị lừa bằng hình thức Deepfake. Thậm chí, có trường hợp giả danh công an để lừa đảo bằng hình thức Deepfake.
Trong các cuộc gọi có hình, các đối tượng lừa đảo sẽ xuất hiện trong hình ảnh mặc quần áo công an, ngồi trong phòng được thiết kế y như phòng làm việc của cơ quan công an với bảng tên, phù hiệu. Các đối tượng giả danh công an gọi Zalo yêu cầu nạn nhân làm theo để lấy video nhằm mục đích định danh tài khoản. Sau khi tài khoản được kích hoạt, các đối tượng sẽ sử dụng để lừa đảo...
Cảnh giác cao trước các yêu cầu video Deepfake
Theo khuyến cáo của Công an TP. Hà Nội, người dân cần nâng cao cảnh giác với các cuộc gọi hỏi vay, mượn tiền, chuyển khoản, tránh việc xác nhận qua video call, video Deepfake, đặc biệt là khi nhận các tin nhắn, cuộc gọi, đường link lạ. Trong trường hợp nhận được những “yêu cầu” này, cần giữ thái độ bình tĩnh, cẩn thận xác thực lại thông tin bằng cách gọi điện thoại hoặc có thể gặp trực tiếp để trao đổi thông tin chính xác trước khi chuyển tiền.
Mới đây, chủ nhân tài khoản Facebook Đ.H.V. đăng tải nội dung “Em mới bị chị công an online này hỏi thăm với lý do có đăng ký 1 số điện thoại 096… tại Đà Nẵng, sau đó lên Facebook kêu gọi từ thiện. Được số tiền là 58.976.000 đồng nhưng không mang số tiền đó làm đúng mục đích từ thiện. Vì vậy, chị công an đã gọi điện để hỗ trợ online, chuyển cuộc gọi của em đi gặp tòa án để báo án. Và yêu cầu gọi video từ Zalo, khi nghe cuộc gọi thì nhớ nhìn thẳng, nghiêng trái nghiêng phải....”.
Về vụ việc trên, cơ quan công an và các chuyên gia an ninh mạng lý giải, các đối tượng yêu cầu nạn nhân làm theo chỉ dẫn để lấy video nhận diện khuôn mặt nhằm mục đích lấy định danh tài khoản. Với sự phát triển vượt bậc của công nghệ, người dùng có thể mở tài khoản ngân hàng, ví điện tử online. Sau khi tài khoản được kích hoạt, các đối tượng sẽ sử dụng để lừa đảo...
Mọi người đã từng mở tài khoản ngân hàng, ví điện tử online, sẽ biết cần phải có 1 bước gọi là KYC (định danh cá nhân) để kích hoạt tài khoản. Định danh bằng cách quét khuôn mặt của người dùng, người dùng nhìn thẳng, nghiêng trái, nghiêng phải, ngước lên, cúi xuống... Sau khi tài khoản ngân hàng được kích hoạt, các đối tượng sẽ sử dụng để chiếm đoạt tài sản của nạn nhân.
Lực lượng công an khuyến cáo, các nạn nhân bị lừa đảo bằng các hình thức giả danh Facebook, Deepfake... ngày càng có xu hướng gia tăng trên khắp cả nước. Các đối tượng lừa đảo dùng thủ đoạn rất tinh vi, có thể xảy ra với bất cứ ai và bất cứ thời điểm nào. Khi nhận bất kỳ tin nhắn vay mượn tiền thông qua mạng xã hội, người dân cần điện thoại trực tiếp cho người thân để xác minh. Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.
Cơ quan công an không xử lý các vụ việc bằng hình thức online, tất cả được giải quyết tại trụ sở. Vì vậy, nếu phát hiện ra trường hợp giả danh công an, người dân cần báo ngay cho cơ quan công an để nhanh chóng xác minh, ngăn chặn và xử lý các đối tượng vi phạm theo quy định của pháp luật.
Cách phân biệt và phòng tránh bị lừa đảo bằng Deepfake
Theo ông Nguyễn Văn Cường - Giám đốc Trung tâm an ninh mạng BKAV, Deepfake là kỹ thuật sử dụng trí tuệ nhân tạo để tạo ra hình ảnh hoặc video giả mạo rất giống với người thật. Khi áp dụng vào cuộc gọi video, Deepfake có thể giả mạo giọng nói, biểu cảm khuôn mặt và cử chỉ của người bị giả mạo, dẫn đến việc người nhận cuộc gọi có thể bị lừa đảo.
Có một số dấu hiệu cho thấy một cuộc gọi video có thể là giả mạo. Ví dụ như, nếu người gọi không nhìn trực tiếp vào camera, nói không trôi chảy, hoặc có những hành động bất thường trong video. Bên cạnh đó, nếu người dùng nhận thấy có sự khác biệt giữa giọng nói và hành động của người trong video thì có thể đó là dấu hiệu của một video giả mạo.
Để phòng tránh lừa đảo bằng Deepfake, người dùng cần cẩn trọng khi chia sẻ thông tin cá nhân và tài khoản ngân hàng. Nếu có bất kỳ sự nghi ngờ nào về tính xác thực của cuộc gọi video, người dùng nên hủy cuộc gọi và kiểm tra lại thông tin. Ngoài ra, để bảo vệ thông tin cá nhân, người dùng cần thường xuyên thay đổi mật khẩu và bảo vệ thiết bị của mình khỏi các phương tiện tấn công mạng. Đồng thời, người dùng nên cẩn thận và xem xét kỹ trước khi chia sẻ thông tin cá nhân với bất kỳ ai trên mạng và đảm bảo rằng chỉ chia sẻ thông tin với các trang web đáng tin cậy và có hệ thống bảo mật tốt.
Việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng có thể gia tăng trong thời gian tới. Người sử dụng cần luôn cảnh giác, tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao. Bởi cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này.