Deepfake đe dọa hệ thống nhận diện của ngân hàng

Khi deepfake được sử dụng phổ biến, nó sẽ tạo cơ hội cho hacker tận dụng, bởi vì đó là nơi chúng có thể kiếm tiền.

Bảo mật sinh trắc học bằng công nghệ nhận dạng khuôn mặt đang được sử dụng ngày một phổ biến. Cho đến nay, có rất ít bằng chứng cho thấy deepfake – công nghệ cho phép ghép hình ảnh khuôn mặt vào video dựa trên AI – bị lợi dụng cho các mục đích lừa đảo tài chính, bởi các hệ thống của ngân hàng hoặc dịch vụ thanh toán được bảo mật rất cao và không dễ vượt qua.

Tuy nhiên, các chuyên gia bảo mật cho rằng khi deepfake ngày càng phát triển, việc tấn công không phải là không thể.

Công nghệ về deepfake đang phát triển nhanh chóng. Ảnh: SCMP.

Công nghệ về deepfake đang phát triển nhanh chóng. Ảnh: SCMP.

Trong một cuộc khảo sát với 105 giám đốc của các tổ chức an ninh mạng do nhà cung cấp dịch vụ xác thực sinh trắc học iProov công bố vào tháng 1, 77% cho biết họ lo ngại về tác động tiềm tàng của video, âm thanh và hình ảnh deepfake. Trong đó, vấn đề được quan tâm nhất là gian lận trong ủy quyền thanh toán và chuyển khoản.

Các chuyên gia cho rằng các mối đe dọa của deepfake về tài chính chưa nở rộ, nhưng không hoàn toàn là lý thuyết. Năm ngoái, đã có trường hợp sử dụng phần mềm AI để đánh lừa CEO của một công ty năng lượng ở Anh qua điện thoại. Kẻ gian đã giả danh CEO của một công ty mẹ ở Đức, yêu cầu chuyển 242.000 USD cho một nhà cung cấp không có thật. Theo miêu tả, âm thanh giả mạo được làm giống đến mức CEO người Anh chuyển khoản lập tức mà không nghi vấn gì. Dù chưa hẳn liên quan đến deepfake, ví dụ này cho thấy nguy cơ lừa đảo từ các hình thức giả mạo âm thanh, hình ảnh, video… sẽ xuất hiện với tần suất lớn hơn trong tương lai.

“Bất cứ khi nào một công nghệ mới được sử dụng phổ biến, nó sẽ tạo cơ hội cho hacker tận dụng, bởi vì đó là nơi chúng có thể kiếm tiền”, Kok Tin Gan, một chuyên gia công nghệ và là một hacker, nói.

Năm ngoái, ZAO – một ứng dụng hoán đổi khuôn mặt dựa trên AI – lan truyền trên Internet Trung Quốc gây nhiều lo ngại. Một số người đã thử dùng ứng dụng này để qua mặt các nền tảng thanh toán như Alipay – một nền tảng thanh toán thuộc Ant Financial – của tỷ phú Jack Ma, nhưng chưa có trường hợp nào thành công. Đại diện Alipay lên tiếng trên Weibo: “Hiện có rất nhiều chương trình hoán đổi khuôn mặt trực tuyến. Nhưng cho dù kết quả giống như thật đi chăng nữa, nó cũng không thể vượt qua hệ thống thanh toán nhận dạng khuôn mặt của chúng tôi”.

Năm 2018, một nhóm gồm 5 người đã sử dụng dữ liệu cá nhân và ảnh bị rò rỉ trên Internet để cố gắng ăn cắp tiền qua Alipay. Nhóm này đã dùng thông tin đánh cắp được, sau đó dựng các bức ảnh dưới dạng 3D để đánh lừa hệ thống nhận dạng khuôn mặt của Alipay, nhưng nhanh chóng bị gắn cờ và kế hoạch của nhóm hacker thất bại.

Một video deepfake giả mạo cựu Tổng thống Mỹ Barack Obama đang phát biểu. Ảnh: AP.

Một video deepfake giả mạo cựu Tổng thống Mỹ Barack Obama đang phát biểu. Ảnh: AP.

Trung Quốc hiện là quốc gia sử dụng các hệ thống nhận dạng khuôn mặt nhiều nhất thế giới. Công nghệ này xuất hiện bất cứ đâu tại “đất nước tỷ dân”, từ ứng dụng ngân hàng cho đến máy rút giấy vệ sinh. Những năm gần đây, việc dữ liệu khuôn mặt bị rò rỉ ngày một tăng làm dấy lên những lo ngại và gây ra một số phản ứng dữ dội.

Gan, một hacker “mũ xám”, nói rằng việc mua các dữ liệu sinh trắc học trực tuyến chưa bao giờ dễ dàng như hiện nay. Người này cho biết một gói 5.000 hình ảnh khuôn mặt trên thị trường “chợ đen” có giá khoảng 10 nhân dân tệ (1,4 USD) hoặc thậm chí miễn phí. “Deepfake sẽ khiến mọi người suy nghĩ lại về việc cung cấp hình ảnh khuôn mặt và các dữ liệu sinh trắc học khác. Xác thực qua sinh trắc học có những tiện lợi nhất định, nhưng mọi người không thể thay đổi khuôn mặt hoặc dấu vân tay như thay mật khẩu”, Gan nói.

Tuy nhiên, hacker này cho rằng người dùng không nên quá lo lắng. Với bất kỳ công nghệ nào, các hình thức tấn công mạng mới xuất hiện sẽ kéo theo các biện pháp phòng thủ mới. Chẳng hạn, ngân hàng có thể áp dụng nhiều bước xác minh cùng lúc. “Ví dụ, nếu bạn quét khuôn mặt của mình để truy cập ứng dụng ngân hàng, nó sẽ chỉ dùng cho xác thực ban đầu. Để truy cập vào các tính năng khác, ứng dụng buộc yêu cầu các mã xác thực riêng gửi qua tin nhắn SMS”, Gan nói.

Cho đến nay, việc dùng deepfake mới chỉ dừng lại ở việc tạo các video khiêu dâm giả mạo, hoặc những video hài hước ghép khuôn mặt của người này với người khác. Tuy nhiên, nguy cơ lừa đảo liên quan đến lĩnh vực tài chính vẫn hiện hữu. “Tôi cho rằng sẽ có một sự cố lớn gây ra gián đoạn đến ngành này thời gian tới”, Gan dự đoán.

Nhiều cơ quan quản lý và ngân hàng tại Trung Quốc đang ngày càng lo ngại về khả năng xảy ra các vụ lừa đảo liên quan đến deepfake. Theo Financial Time, một số tập đoàn fintech và ngân hàng, bao gồm cả HSBC, đã bắt đầu chuẩn bị cho mối đe dọa từ công nghệ này, đặc biệt nhắm vào các ứng dụng thanh toán và các tổ chức tài chính. Một số công ty đã bắt đầu chuẩn bị đối phó với deepfake, chẳng hạn Microsoft gần đây đã phát triển một công cụ cho phép xác thực tính chính xác của video giả mạo bằng AI mà con người không thể phân biệt được.

Tại Trung Quốc, thái độ của người dân về dữ liệu sinh trắc học cũng bắt đầu thay đổi. Trong một cuộc khảo sát với hơn 6.000 người vào năm 2019, hơn 80% cho biết họ sợ bị rò rỉ dữ liệu trên khuôn mặt, 65% lo lắng về các trò lừa đảo deepfake. Tuy vậy, cũng như các công nghệ khác, các chuyên gia cho rằng việc người dân nhận thức được nguy cơ của deepfake một cách rộng rãi có thể mất nhiều năm.

Bảo Lâm (theo SCMP)

Nguồn : vnexpress.net