- Scams Using AI Impersonation Targeting U.S. Officials on the Rise
- Giới thiệu
- Vụ việc: Giả mạo Bộ trưởng Marco Rubio
- Chi tiết của vụ giả mạo
- Phản hồi của Bộ Ngoại giao
- Sự gia tăng các trò gian lận giọng nói được tạo bởi AI
- Hiểu về công nghệ Deepfake
- Những hệ lụy đối với an ninh mạng
- Ngữ cảnh rộng hơn: Các vụ giả mạo AI trước đó
- Giả mạo Susie Wiles
- Cảnh báo của FBI và Các chiến dịch rộng hơn
- Phân tích chuyên gia: Sự dễ dàng và nguy hiểm của việc nhái giọng bằng AI
- Khả năng truy cập của các công cụ nhái giọng
- Tiềm năng cho thao túng và gian lận
- Các chiến lược giảm thiểu và khuyến nghị
- Các biện pháp an ninh mạng nâng cao
- Nâng cao nhận thức cộng đồng và truyền thông
- Các khuôn khổ pháp lý và quy định
- Kết luận
- Các bài báo liên quan:
Scams Using AI Impersonation Targeting U.S. Officials on the Rise
Giới thiệu
Vào tháng 6 năm 2025, một sự kiện tinh vi liên quan đến trí tuệ nhân tạo (AI) đã làm nổi bật sự dễ dàng đáng báo động mà công nghệ nhái giọng có thể bị lạm dụng cho những mục đích ác ý. Một đối tượng không rõ danh tính đã sử dụng AI để giả mạo một cách thuyết phục Bộ trưởng Ngoại giao Mỹ Marco Rubio, nhằm mục tiêu vào các quan chức cấp cao cả trong nước và quốc tế. Sự kiện này đã làm nổi bật sự gia tăng của các trò gian lận giọng nói do AI thực hiện và nhu cầu cấp bách về các biện pháp an ninh mạng nâng cao.
Vụ việc: Giả mạo Bộ trưởng Marco Rubio
Chi tiết của vụ giả mạo
Vào giữa tháng 6 năm 2025, một cá nhân đã tạo một tài khoản Signal dưới tên hiển thị “Marco.Rubio@state.gov”, một địa chỉ email giả không liên quan đến Bộ trưởng Ngoại giao. Bằng cách sử dụng phần mềm AI, kẻ giả mạo đã bắt chước giọng nói và phong cách viết của Rubio để gửi tin nhắn qua văn bản, Signal và voicemail đến ít nhất ba bộ trưởng ngoại giao, một thống đốc bang của Mỹ và một thành viên Quốc hội. Những tin nhắn này có vẻ chân thực đến mức thuyết phục, nhằm thao túng người nhận tiết lộ thông tin nhạy cảm hoặc cấp quyền truy cập trái phép vào các tài khoản bảo mật. (Washington Post)
Phản hồi của Bộ Ngoại giao
Bộ Ngoại giao Mỹ đã nhanh chóng phản ứng trước sự cố này, phát đi cảnh báo tới các nhà ngoại giao về việc sử dụng AI để giả mạo Bộ trưởng Rubio và các quan chức khác. Một bản ghi nhớ ngày 3 tháng 7 năm 2025 đã thông báo cho các đại sứ quán và lãnh sự quán về sự vi phạm và nhấn mạnh tầm quan trọng của việc bảo vệ thông tin. Phát ngôn viên Tammy Bruce cho biết: “Bộ không ngừng cải thiện tư thế an ninh mạng của mình để ngăn chặn các sự cố trong tương lai.” (WESH)
Sự gia tăng các trò gian lận giọng nói được tạo bởi AI
Hiểu về công nghệ Deepfake
Công nghệ deepfake liên quan đến việc sử dụng AI để tạo ra âm thanh, video hoặc hình ảnh giả mạo nhưng cực kỳ chân thực. Trong bối cảnh của giọng nói deepfake, các thuật toán AI sẽ phân tích các mẫu phát âm, giọng điệu và nhịp điệu của mục tiêu để tạo ra lời nói tổng hợp giống như bản gốc. Công nghệ này đã được sử dụng cho nhiều ứng dụng, từ giải trí đến các hoạt động ác ý. (Wikipedia)
Những hệ lụy đối với an ninh mạng
Vụ việc giả mạo Rubio cho thấy những điểm yếu trong các khuôn khổ an ninh mạng hiện tại. Các trò lừa đảo giọng nói do AI tạo ra có thể vượt qua các biện pháp bảo mật truyền thống, chẳng hạn như hệ thống nhận diện giọng nói, bằng cách sản xuất các bản sao thuyết phục của những cá nhân được ủy quyền. Điều này tạo ra những rủi ro lớn, bao gồm quyền truy cập trái phép vào thông tin nhạy cảm và khả năng thao túng các quan chức cấp cao. (Financial Times)
Ngữ cảnh rộng hơn: Các vụ giả mạo AI trước đó
Giả mạo Susie Wiles
Vào tháng 5 năm 2025, một sự cố tương tự xảy ra liên quan đến Susie Wiles, trưởng ban thư ký của Tổng thống Trump. Một kẻ giả mạo đã truy cập vào danh bạ cá nhân của Wiles và dùng AI để tạo ra các tin nhắn giọng nói có vẻ đến từ cô ấy. Những tin nhắn này được gửi đến nhiều cá nhân, bao gồm các quan chức chính phủ và các giám đốc điều hành doanh nghiệp, nhằm mục đích lừa họ thực hiện những hành động cụ thể. (Time)
Cảnh báo của FBI và Các chiến dịch rộng hơn
FBI đã phát hành các thông báo công khai liên quan đến các chiến dịch “ác ý” dựa trên các tin nhắn giọng nói do AI tạo ra để giả mạo các quan chức cấp cao của Mỹ. Những chiến dịch này nhằm mục đích lừa đảo các quan chức chính phủ và những người liên quan, làm nổi bật mối đe dọa ngày càng tăng từ việc giả mạo bằng AI. (Washington Post)
Phân tích chuyên gia: Sự dễ dàng và nguy hiểm của việc nhái giọng bằng AI
Khả năng truy cập của các công cụ nhái giọng
Các chuyên gia nhấn mạnh rằng việc truy cập vào các công cụ nhái giọng bằng AI đang ngày càng trở nên dễ dàng. Chỉ với vài giây âm thanh, những công cụ này có thể tạo ra các bản sao giọng nói thuyết phục, khiến cho các tác nhân xấu dễ dàng thực hiện các trò gian lận như vậy. Hany Farid, một chuyên gia về pháp y kỹ thuật số tại UC Berkeley, lưu ý rằng việc tạo ra một deepfake chỉ yêu cầu khoảng 15–20 giây âm thanh, mà là rất dễ dàng tìm thấy cho các nhân vật công cộng như Rubio. (Medium)
Tiềm năng cho thao túng và gian lận
Tiềm năng cho thao túng và gian lận bằng cách sử dụng giọng nói do AI tạo ra là rất lớn. Các deepfakes có thể được sử dụng để giả mạo các cá nhân ở vị trí quyền lực, dẫn đến quyền truy cập trái phép vào thông tin bí mật, gian lận tài chính và việc phát tán thông tin sai lệch. Cơ quan Bảo vệ Người tiêu dùng Tốt (Better Business Bureau) ước tính rằng các trò gian lận deepfake hiện đang chịu trách nhiệm cho khoảng 12 tỷ USD thiệt hại toàn cầu, với các dự báo cho thấy con số này có thể đạt 40 tỷ USD trong ba năm tới. (Wikipedia)
Các chiến lược giảm thiểu và khuyến nghị
Các biện pháp an ninh mạng nâng cao
Các tổ chức cần triển khai các quy trình an ninh mạng mạnh mẽ để phát hiện và ngăn chặn các nỗ lực giả mạo do AI thực hiện. Điều này bao gồm việc giám sát các kênh giao tiếp để phát hiện các bất thường, sử dụng các phương pháp xác thực tiên tiến và thực hiện các cuộc kiểm tra an ninh định kỳ. (Financial Times)
Nâng cao nhận thức cộng đồng và truyền thông
Giáo dục công chúng và các quan chức về sự tồn tại và những rủi ro của deepfake là rất quan trọng. Thúc đẩy khả năng đánh giá truyền thông có thể giúp các cá nhân xem xét thông tin một cách phản biện và nhận diện các deepfake tiềm tàng. Khi công nghệ deepfake trở nên tinh vi hơn, khả năng phân biệt nội dung chính xác từ tài liệu giả mạo là cần thiết. (Wikipedia)
Các khuôn khổ pháp lý và quy định
Việc phát triển và thực thi các khuôn khổ pháp lý để giải quyết việc lạm dụng AI trong việc tạo ra deepfakes là điều cần thiết. Điều này bao gồm việc thiết lập các hình phạt cho việc sử dụng ác ý và tạo ra các tiêu chuẩn cho nội dung do AI sản xuất. Những biện pháp như vậy có thể ngăn cản các đối tượng phạm tội tiềm năng và cung cấp một lộ trình rõ ràng khi các sự cố xảy ra. (Wikipedia)
Kết luận
Sự giả mạo do AI đối với Bộ trưởng Marco Rubio là một lời nhắc nhở rõ ràng về những điểm yếu vốn có trong các hệ thống giao tiếp kỹ thuật số của chúng ta. Khi công nghệ AI tiếp tục phát triển, khả năng bị khai thác ác ý ngày càng lớn, gây ra những rủi ro đáng kể cho cả cá nhân và tổ chức. Các biện pháp chủ động, bao gồm việc nâng cao quy trình an ninh mạng, giáo dục công chúng về khả năng phân tích truyền thông và phát triển các khung pháp lý toàn diện, là rất cần thiết để giảm thiểu những mối đe dọa này và bảo vệ khỏi những nguy cơ của gian lận giọng nói do AI tạo ra.
Các bài báo liên quan:
- Bộ Ngoại giao Mỹ siết chặt an ninh mạng sau sự việc giả mạo Marco Rubio, Công bố vào Thứ Ba, ngày 08 tháng 7
- Kẻ lừa đảo AI giả mạo tin nhắn Rubio gửi đến các quan chức cấp cao, Công bố vào Thứ Tư, ngày 09 tháng 7
- Các quan chức Trump tiếp tục bị giả mạo bởi kẻ lừa đảo A.I. “Vishing” – Điều bạn cần biết và cách bảo vệ mình, Công bố vào Thứ Tư, ngày 09 tháng 7

