Thời Sự

Deepfake: Nạn nhân mới, mối nguy dài lâu

21 tháng 3 2024

   BBC News

Bà Meloni đòi bồi thường tài chính khi là nạn nhân của deepfake với dự định sử dụng khoản tiền này cho một quỹ hỗ trợ phụ nữ bị bạo hành

Thủ tướng Giorgia Meloni của Ý đang đòi khoản bồi thường 100.000 euro (hơn 2 tỷ VND) sau khi các video khiêu dâm giả mạo bà bằng deepfake được đăng tải.

Đội ngũ pháp lý của bà cho biết nếu yêu cầu bồi thường được đáp ứng, bà sẽ góp 100.000 euro này cho một quỹ hỗ trợ phụ nữ là nạn nhân bạo hành của đàn ông.

Một người đàn ông 40 tuổi, người được cho là đã sản xuất các video, và cha của mình (73 tuổi) đang bị điều tra. Hai người bị cáo buộc đã có hành vi phỉ báng.

Cảnh sát cho biết đã tìm ra hai người này bằng cách lần theo thiết bị di động họ đã sử dụng để đăng tải các video.

Cáo trạng cho biết các video được đăng tải trên một trang web khiêu dâm của Mỹ và nhận được "hàng triệu lượt xem" trong vài tháng.

Theo luật pháp Ý, một số trường hợp phỉ báng có thể bị truy tố hình sự, kèm với hình phạt giam giữ.

Các video deepfake của bà Meloni đã được tạo ra trước khi bà được bổ nhiệm làm thủ tướng vào năm 2022.

Trong những năm gần đây, các video khiêu dâm deepfake đã trở nên phổ biến trên internet.

Các nạn nhân thường xuyên chia sẻ về những tổn thương tâm lý khi nhìn thấy khuôn mặt của mình trong các cảnh khiêu dâm.

Hàng loạt các ngôi sao nổi tiếng như Scarlett Johansson, Emma Watson, Taylor Swift cũng từng ở trong tình cảnh tương tự như của Thủ tướng Ý.

Deepfake ở Việt Nam

  
Việt Nam phải Việt Nam phải làm gì nếu nổ ra chiến tranh công nghệ cao?

Theo một bài viết ngày 16/4/2023 trên báo Pháp luật, một tài khoản Twitter (nay là mạng xã hội X) đã liên tục đăng những hình ảnh nhạy cảm có gương mặt của các ngôi sao giải trí nam.

Nhiều gương mặt nổi tiếng ở Việt Nam như Sơn Tùng M-TP, HIEUTHUHAI, Quân A.P, Ngô Kiến Huy đã trở thành nạn nhân bị ghép mặt vào những hình ảnh tục tĩu, nhạy cảm.

Với chỉ 50.000 đồng, người mua sẽ nhận được ba bức ảnh ghép mặt người nổi tiếng.

Ngay đầu năm nay, ông Hồ Huy, Chủ tịch Tập đoàn Mai Linh, đã phản ánh lên Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam việc nhiều đối tượng sử dụng công nghệ deepfake để cắt ghép và phát tán hình ảnh nhạy cảm của ông trên mạng xã hội.

Theo Báo cáo chỉ số nguy cơ an ninh mạng (X-Force Threat Intelligency Index) năm 2024 của IBM, châu Á-Thái Bình Dương, bao gồm Việt Nam, là khu vực hứng chịu các cuộc tấn công mạng nhiều top 3 thế giới năm 2023.

Công ty An ninh mạng Việt Nam (VSEC) dự báo các vụ tấn công mạng bằng AI, trong đó có lừa đảo deepfake để giả mạo khuôn mặt và giọng nói, sẽ tiếp tục gia tăng trong năm 2024.

Không chỉ đơn thuần là giả danh nhân viên ngân hàng hay công an như trước kia, những kẻ lừa đảo đang ngày càng trở nên tinh vi hơn khi áp dụng công nghệ deepfake.

Hình thức lừa đảo này đã xuất hiện tại nhiều nước trước khi lan tới Việt Nam.

Tháng 2/2024, một nhân viên tài chính tại một công ty đa quốc gia đã bị lừa trả 25 triệu USD cho những kẻ lừa đảo đóng giả giám đốc tài chính bằng deepfake, theo cảnh sát Hong Kong.

Ảnh hưởng tới bầu cử Mỹ

Một trong hàng chục bức ảnh giả mạo miêu tả cảnh người da đen ủng hộ ông Trump.

Đây là một trong hàng chục bức ảnh giả mạo miêu tả cảnh người da đen ủng hộ ông Trump.

Bên cạnh việc sử dụng deepfake để bôi nhọ danh dự người khác, nhiều cá nhân lạm dụng các phần mềm dạng này nhằm gây ra những tác động chính trị.

Trong năm bầu cử Mỹ, hàng loạt thông tin giả tạo ra bởi deepfake được phát tán.

Thời gian cuối tháng Hai, đầu tháng 3/2024, những người ủng hộ ông Donald Trump đã tạo và phát tán hàng loạt hình ảnh giả mạo về cử tri da đen nhằm khuyến khích người Mỹ gốc Phi bỏ phiếu cho Đảng Cộng hòa.

BBC đã phát hiện hàng chục hình ảnh deepfake thể hiện sự ủng hộ của người da đen đối với vị cựu tổng thống Mỹ.

Tổng thống đương nhiệm Joe Biden có phần kém may mắn hơn.

Tháng 1/2024, hàng loạt cuộc gọi giả mạo Tổng thống Biden đã kêu gọi cử tri Mỹ bỏ qua cuộc bầu cử sơ bộ ở New Hampshire.

Cũng trong tháng này, Thứ trưởng Tư pháp Mỹ Lisa Monaco cảnh báo sự “gia tăng” nguy cơ phát tán thông tin sai lệch và kích động bạo lực tại các cuộc bầu cử.

Trong cuộc trò chuyện riêng với BBC, bà lo ngại việc kẻ xấu sử dụng trí tuệ nhân tạo (AI) để “gieo rắc hỗn loạn”.

Bà cũng tiết lộ kế hoạch tăng cường đối phó với nhóm tội phạm sử dụng AI.

Ông Putin và Zelensky

Cảnh ông Putin nói chuyện với bản sao của mình trong buổi họp báo thường niên

Ông Putin nói chuyện với bản sao của mình trong buổi họp báo thường niên

Trong buổi họp báo thường niên của Tổng thống Nga Vladimir Putin vào ngày 14/12/2023, ông đã nói chuyện với chính hình ảnh giả mạo của mình trên sóng truyền hình.

Sau khi chững lại đôi chút, ông Putin đánh giá “không thể ngăn cản” được sự nguy hiểm đến từ việc lạm dụng AI vào mục đích xấu như giả mạo danh tính.

Do đó, ông nói rằng Nga nên tập trung phát triển nhằm đi đầu trong ngành công nghệ này.

Đầu năm 2022, từng có một video giả mạo ông Putin xuất hiện trên nền tảng X (Twitter) và tuyên bố hòa bình trong bối cảnh chiến tranh ở Ukraine.

Trong khoảng thời gian này cũng xuất hiện một video giả mạo Tổng thống Ukraine Volodymyr Zelensky, thể hiện cảnh ông đứng trên bục phát biểu, kêu gọi người dân Ukraine buông bỏ vũ phí trước Nga.

 

 

© 2001 by Tổng Hội Cựu Tù Nhân Chính Trị Việt Nam. All Rights Reserved.Chính Việt xin đón nhận mọi ý kiến xây dựng và bài vở, xin email về baochinhviet@gmail.com

Search