Những kẻ lừa đảo đang sử dụng các công cụ tạo giọng nói bằng AI để mạo danh người khác, với độ chân thật đáng kinh ngạc khiến nhiều người rơi vào bẫy lừa.
Cơn ác mộng của gia đình Perkin (39 tuổi) bắt đầu khi cha mẹ anh nhận được điện thoại từ một luật sư, nói rằng con trai họ đã gây ra một vụ tai nạn giao thông khiến một nhà ngoại giao người Mỹ tử vong. Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý.
Vị “luật sư” này sau đó đã chuyển máy cho Perkin (vốn thực chất là AI giả giọng), nói rằng anh rất cần tiền. Vài giờ sau, “luật sư” này tiếp tục gọi lại cho cha mẹ của Perkin, nói rằng con trai họ cần 21.000 USD (15.449 USD, khoảng 366 triệu đồng) trước khi ra tòa vào cuối ngày hôm đó.
Trong tình trạng hoảng loạn, họ vội vã đến một số ngân hàng để lấy tiền mặt và gửi tiền cho luật sư “rởm” thông qua một thiết bị đầu cuối bitcoin.
Mãi đến khi Perkin thật gọi điện cho bố mẹ anh vào đêm hôm đó, họ mới vỡ lẽ và nhận ra mình đã bị lừa. Cha mẹ của Perkin sau đó nói với anh rằng, họ biết cuộc gọi này có vẻ bất thường, nhưng họ không thể lay chuyển được cảm giác rằng họ đã thực sự nói chuyện với con trai mình.
Theo đó, giọng nói này nghe “đủ giống để bố mẹ tôi thực sự tin rằng họ đã nói chuyện với tôi,” Perkin nói. Bản thân Perkin nghi ngờ các video trên kênh Youtube của bản thân, khi anh nói về sở thích trượt tuyết của mình, đã tạo cơ hội cho những kẻ có ý đồ xấu huấn luyện AI giả giọng mình.
Đáng nói, việc lấy lại khoản tiền bị lừa gần như không thể. “Tiền đã mất. Không có bảo hiểm. Lấy lại là không thể”, Perkin thừa nhận.
Đáng chú ý, cha mẹ của Perkin không phải là một trường hợp cá biệt bị lừa bởi phương thức như vậy.
Vào một ngày nọ, bà Ruth Card, 73 tuổi, ở Regina (Canada), nhận được một cuộc điện thoại từ một người đàn ông. Giọng nói bên kia đường dây nghe rất giống cháu trai Brandon của bà. Qua điện thoại, người này nói rằng mình đang bị tạm giam, không có ví hay điện thoại di động và cần đóng một khoản tiền để được tại ngoại.
“Đó chắc chắn là cảm giác… sợ hãi,” bà nói. “Chúng tôi nghĩ rằng mình phải giúp nó ngay bây giờ.”, bà Card kể lại câu chuyện cho phóng viên tờ Washington Post.
Ngay sau cuộc điện thoại, bà Card cùng chồng mình, ông Greg Grace (75 tuổi), đã lập tức một ngân hàng ở Regina, Saskatchewan (Canada). Tại đây, ông bà đã rút 3000 đô la Canada (tương đương 2207 USD) – mức tiền tối đa bà có thể rút hàng ngày. Họ lập tức định tới một chi nhánh ngân hàng khác để rút thêm tiền.
Tuy nhiên, may mắn cho họ, vị quản lý chi nhánh ngân hàng đã gọi hai ông bà vào văn phòng và cho biết: Một khách hàng khác vừa rút tiền cũng vừa nhận được một cuộc gọi với một tình huống tương tự. Người này cũng khẳng định giọng nói qua điện thoại rất giống với giọng người thân của họ.
Đó là lúc bà Card nhận ra rằng họ đã bị lừa. Người đàn ông vừa gọi điện lúc trước không phải là cháu trai Brandon của bà.
“Tâm trí của chúng tôi bị cuốn vào,” bà Card nói trong một cuộc phỏng vấn với The Washington Post. “Chúng tôi tin chắc rằng chúng tôi đang nói chuyện với Brandon.”
Khi các vụ lừa đảo mạo danh ở Mỹ gia tăng, những vụ việc bà Card gặp phải là dấu hiệu cho thấy một xu hướng đáng lo ngại. Công nghệ đang giúp những kẻ xấu bắt chước giọng nói dễ dàng hơn (với chi phí ít hơn), từ đó thuyết phục mọi người, thường là người già, rằng những người thân yêu của họ đang gặp nạn.
Theo dữ liệu từ Ủy ban Thương mại Liên bang của Mỹ, vào năm 2022, việc mạo dạnh người khác để lừa tiền là trò lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 trường hợp báo cáo về việc bị lừa bởi những kẻ giả danh bạn bè và gia đình. Các quan chức FTC cho biết, hơn 5.100 vụ việc đã xảy ra qua khi người xấu dùng điện thoại để lừa đảo, gây thiệt hại hơn 11 triệu USD (tương đương
Mặc dù chiêu trò lừa đảo của kẻ mạo danh có nhiều hình thức, nhưng về cơ bản chúng hoạt động theo cùng một phương thức: kẻ lừa đảo mạo danh một người đáng tin cậy — trẻ em, người yêu hoặc bạn bè — và thuyết phục nạn nhân gửi tiền cho họ vì họ đang gặp khó khăn.
Những tiến bộ trong trí tuệ nhân tạo đã mang tới một khả năng đáng sợ, cho phép những kẻ xấu sao chép giọng nói một ai đó chỉ bằng một mẫu âm thanh, vốn chỉ bao gồm vài câu nói của người bị giả mạo. Công nghệ giả giọng nói tốt đến mức, nó khiến các chiêu trò lừa đảo trở nên thuyết phục hơn. Hầu hết các nạn nhân bị lừa đều có chung một phản ứng: Hoảng hốt khi nghe tin người thân yêu của mình gặp nguy hiểm.
Theo đó, các phần mềm tạo giọng nói AI sẽ phân tích yếu tố khiến giọng nói của một người trở nên độc đáo — bao gồm tuổi tác, giới tính và tông giọng — đồng thời tìm kiếm cơ sở dữ liệu khổng lồ về các giọng nói để tìm những giọng nói tương tự và dự đoán các mẫu.
Sau đó, nó có thể tạo lại cao độ, âm vực và âm thanh riêng lẻ của giọng nói của một người để tạo ra hiệu ứng tổng thể tương tự. Tuy nhiên, dữ liệu âm thanh đầu vào cho các công cụ tạo giọng nói bằng AI lại khá đơn giản. Nó yêu cầu một mẫu âm thanh ngắn có chứa giọng của một ai đó, có thể được lấy từ những nơi như YouTube, TikTok, Instagram hoặc Facebook.
Bản thân các công cụ mạo danh giọng nói bằng AI cũng khá dễ tiếp cận. Các công ty như ElevenLabs, một startup thành lập vào năm 2022, đã phát triển VoiceLab – công cụ tái tạo giọng nói bằng AI. Theo đó, công cụ này có phiên bản miễn phí (nhưng đi kèm theo nhiều giới hạn), hoặc phiên bản trả phí có giá từ 5 tới 330 USD/tháng để sử dụng, với số tiền bỏ ra nhiều hơn cho phép người dùng tạo ra nhiều giọng nói hơn.
“Hai năm trước, thậm chí một năm trước, bạn cần rất nhiều âm thanh để sao chép giọng nói của một người,” Hany Farid, giáo sư pháp y kỹ thuật số tại Đại học California ở Berkeley nhận định.
“Bây giờ… nếu bạn có một trang Facebook… hoặc nếu bạn đã ghi lại một clip TikTok và giọng nói của bạn ở đó trong 30 giây, mọi người có thể sao chép giọng nói của bạn.”
Lifehub tổng hợp
Nguồn bài viết