Không chỉ chị Hoà, thời gian qua, có nhiều người trở thành nạn nhân của các cuộc gọi Deepfake với nhiều cách thức khác nhau, đa phần đều là những lý do rất gấp gáp như người thân gặp nạn, giả dạng cán bộ, công an… buộc người nghe phải chuyển tiền luôn. Theo ghi nhận của Cục An toàn thông tin, trong 6 tháng đầu năm, tình hình lừa đảo trực tuyến tại Việt Nam tăng 64,78% (so với cùng kỳ năm ngoái); tăng 37,82% (so với 6 tháng cuối 2022).
Thông tin từ Công an TP. Hồ Chí Minh cho biết, bằng cách sử dụng công nghệ Deepfake - một ứng dụng cho phép giả dạng hình ảnh và giọng nói - các đối tượng đã giả dạng cán bộ cơ quan chức năng (cán bộ công an, cơ quan thuế...) hoặc người thân quen của nạn nhân để gọi video call với nạn nhân nhằm tạo sự tin tưởng. Phần lớn các cuộc gọi giả mạo nhắm đến lừa đảo tài chính. Không chỉ lừa đảo tiền, trong lúc gọi video call, bằng nhiều thủ đoạn, kẻ lừa đảo sẽ yêu cầu nạn nhân nhìn thẳng, nghiêng trái, nghiêng phải... Sau đó, người này sẽ ghi lại video và dùng nó để mở tài khoản ngân hàng, ví điện tử đứng tên nạn nhân, các tài khoản này có thể sử dụng vào mục đích lừa đảo hoặc các hành vi vi phạm pháp luật khác.
Chính vì vậy, trong thời gian qua, các ngân hàng đã liên tục phát đi cảnh báo cho người dùng về phương thức lừa đảo bằng Deepfake. Đơn cử như mới đây, Techcombank đã đưa ra cảnh báo tới khách hàng về phương thức, thủ đoạn lừa đảo này. Theo Techcombank, thời gian gần đây, nổi lên công nghệ giả mạo cuộc gọi video Deepfake tinh vi mà nếu không cảnh giác, rất có thể khách hàng sẽ trở thành “nạn nhân” tiếp theo của chiêu trò lừa đảo này.
Bằng rất nhiều thủ đoạn tinh vi, các đối tượng lừa đảo đã lợi dụng không gian mạng để thực hiện nhiều hành vi phạm tội, chiếm đoạt tiền và tài sản của rất nhiều người. Techcombank cho biết, cuộc gọi video Deepfake lừa đảo người dùng thường thực hiện theo 3 bước. Bước 1, sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm để giả mạo người thân/bạn bè/đồng nghiệp hoặc giả mạo cán bộ nhà nước/Công an/Viện kiểm sát…; Bước 2, thực hiện cuộc gọi thoại/video với hình ảnh giọng nói như người thật (thông qua các ứng dụng như Facebook/Zalo/Viber...); Bước 3, yêu cầu nạn nhân chuyển tiền/lừa đảo chiếm đoạt thông tin cá nhân/tài khoản ngân hàng.
Theo các chuyên gia, do nhiều người dùng hiện nay chưa có nhận thức đúng về an toàn thông tin, không cập nhật các biện pháp an toàn, bảo mật mới, cảnh giác với phương thức lừa đảo đang xuất hiện ngày càng nhiều. Bên cạnh đó, cùng với sự phát triển của công nghệ, các phương thức lừa đảo ngày càng tinh vi, đánh vào tâm lý người dùng. Đơn cử như trong trường hợp lừa đảo thông qua Deepfake, người dùng đã bị đánh lừa bởi tin tưởng vào khuôn mặt và giọng nói giả dạng người thân, bạn bè… Các đối tượng lừa đảo đầu tư máy móc, thiết bị hiện đại vì vậy hình ảnh, giọng nói có thể rất chân thật, khiến nạn nhân khó phát hiện ngay.
Về vấn đề này, ông Trần Quang Hưng - Phó Cục trưởng Cục An toàn thông tin (Bộ Thông tin và Truyền thông) cho biết, với các cuộc gọi Deepfake, có một số các dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây, khuôn mặt của người trong cuộc gọi video giả mạo thường thiếu cảm xúc và khá “trơ” khi nói, tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể không nhất quán với nhau…
Ngoài ra, cũng có thể nhận thấy sự bất thường từ màu da của nhân vật trong video cuộc gọi, ánh sáng kỳ dị và bóng đổ không đúng vị trí, khiến cho video trông không tự nhiên. Âm thanh cũng là điểm có thể nhận thấy sự khác lạ, khi không đồng nhất với hình ảnh, có nhiều tiếng ồn lạc vào hoặc video không có âm thanh. Thông thường, kẻ gian sẽ ngắt cuộc gọi giữa chừng với lý do mất sóng, sóng yếu…
Về phía các nhà băng, theo chuyên gia, cần tăng cường phát đi thông báo về những phương thức lừa đảo tới người dùng. Bản thân các ngân hàng cần không ngừng tăng cường năng lực an toàn, bảo mật, nhất là khi công nghệ e-KYC (xác thực bằng khuôn mặt) đang được sử dụng ngày càng nhiều trong hoạt động ngân hàng như mở tài khoản.
Bên cạnh đó, có một thực tế đó là để lấy được tiền của nạn nhân, kẻ lừa đảo cần đến các tài khoản chuyển tiền vào. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ với giá rẻ. Vì vậy, các chuyên gia cho rằng cần ngăn chặn sự hoạt động của các tài khoản không chính chủ, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để giải quyết bài toán căn cơ. Từ đó, số lượng các vụ lừa đảo trực tuyến sẽ giảm mạnh.
Về vấn đề này, ông Phạm Anh Tuấn – Vụ trưởng Vụ Thanh toán, NHNN cho biết, Luật Hình sự nghiêm cấm việc chiếm đoạt sử dụng trái phép tài khoản của người khác. Nhưng chế tài xử phạt hành vi cho thuê, cho mượn tài khoản lại chỉ phạt hành chính. Một số người dân cho rằng việc cho mượn, cho thuê tài khoản là bình thường. Nhiều chứng minh nhân dân, căn cước công dân của người dân ở vùng cao được các đối tượng tội phạm thuê, mượn để mở tài khoản ngân hàng. Vì vậy, khi định danh được khách hàng, ngành Ngân hàng sẽ xử lý được tình trạng mua bán, cho thuê tài khoản này. Dự kiến trong năm 2023, NHNN sẽ trình Chính phủ nghị định và ban hành thông tư hướng dẫn triển khai kết nối dữ liệu.
Quỳnh Trang