[ad_1]

Ngày càng nhiều sản phẩm deepfake được sử dụng một cách tinh vi, đặc biệt trong các video khiêu dâm nhưng chưa có cách xử lý phù hợp.

Reuters dẫn lời các nhà nghiên cứu, công ty công nghệ và nhà quản lý nói rằng deepfake đang ở giai đoạn then chốt, dù mới xuất hiện khoảng 4 năm. Các chuyên gia cảnh báo công nghệ này đã tiên tiến tới mức khiến người xem khó có thể nhận biết video nào là giả và đa phần người dùng có thể sử dụng chỉ với một chiếc smartphone.

“Bạn muốn thấy bản thân trên TV hay đang đóng phim không? Có bao giờ bạn tự hỏi bản thân sẽ trông thế nào nếu được hoán đổi gương mặt với bạn bè hay người nổi tiếng?” là mô tả của một ứng dụng deepfake trên kho ứng dụng Android và iOS. Tuy nhiên, cùng ứng dụng trên, ở các trang web người lớn, nội dung quảng cáo được đổi thành: “Tự tạo phim khiêu dâm bằng deepfake chỉ trong một giây, làm giả bất cứ ai bạn muốn”.

Chỉ với một ứng dụng miễn phí trên điện thoại, người dùng đã có thể tạo ra được các video deepfake một cách dễ dàng. Ảnh: Khương Nha

Chỉ với một ứng dụng miễn phí trên điện thoại, người dùng có thể tạo ra các video deepfake một cách dễ dàng. Ảnh: Khương Nha

Theo thống kê của Sensity, trong hơn 14.000 video deepfake được đăng tải, có đến 96% là video khiêu dâm chưa được cho phép. Số video deepfake cũng tăng gần gấp đôi sau 6 tháng.

Henry Ajder, người đứng đầu bộ phận chính sách và quan hệ đối tác tại công ty AI Metaphysic, cho rằng các video khiêu dâm thực hiện bằng deepfake là một dạng “bạo lực Internet” với phụ nữ.

ExoClick, chuyên cung cấp dịch vụ quảng cáo trực tuyến, đã gỡ quảng cáo “tạo phim khiêu dâm trong một giây” và khẳng định sẽ không quảng bá cho công nghệ hoán đổi khuôn mặt một cách vô trách nhiệm như thế nữa.

Trên các kho ứng dụng như App Store, Google Play, ứng dụng deepfake này không đề cập tới việc có thể dùng để tạo video khiêu dâm. Đại diện Apple cho biết họ không có quy định cụ thể về ứng dụng deepfake, nhưng có các nguyên tắc chung là cấm các ứng dụng có nội dung phỉ báng, phân biệt đối xử hoặc có khả năng làm nhục, đe dọa hoặc làm hại bất kỳ ai. Bên cạnh đó, hãng cũng cấm nhà phát triển tiếp thị sản phẩm sai lệch, có thể khiến người dùng hiểu lầm.

Sau khi Reuters liên hệ về ứng dụng deepfake này, Goolge đã đổi xếp hạng ứng dụng thành cho độ tuổi thanh thiếu niên trở lên thay vì ai cũng có thể tải xuống như ban đầu do “nội dung nhạy cảm”.

Tuy nhiên, không phải ứng dụng deepfake nào cũng xấu. Một số chỉ cho phép người dùng hoán đổi hình ảnh trong các cảnh được chọn trước, yêu cầu xác minh ID từ người được hoán đổi hoặc sử dụng AI để phát hiện nội dung khiêu dâm, dù không phải lúc nào cũng hiệu quả.

Reface là một trong những ứng dụng hoán đổi khuôn mặt phổ biến nhất thế giới, đã thu hút hơn 100 triệu lượt tải xuống trên toàn cầu kể từ năm 2019. Ứng dụng hỗ trợ người dùng ghép khuôn mặt với những người nổi tiếng, siêu anh hùng và các nhân vật meme để tạo video clip vui nhộn.

Công ty này cho biết đang sử dụng tính năng duyệt nội dung tự động và có cả người kiểm duyệt để chặn video khiêu dâm, đồng thời cũng có biện pháp kiểm soát khác để ngăn việc ứng dụng được dùng cho mục đích xấu, như gắn nhãn để mọi người biết đó là video deepfake.

Theo Reuters, bộ xử lý smartphone ngày càng mạnh hơn và có thể tương đương với cấu hình máy tính khiến chất lượng video deepfake tốt hơn, thúc đẩy công nghệ này nở rộ hơn. Các chuyên gia đầu ngành cho biết vào năm 2017, họ cần dữ liệu đầu vào lớn, khoảng vài nghìn ảnh, để có thể tạo ra video có chất lượng nhưng hiện tại chỉ cần một ảnh.

Song song với tốc độ phát triển của công nghệ, các nhà lập pháp cũng đang chật vật tìm cách đặt ra quy định cho deepfake. Họ phải đối mặt với những khó khăn mới về kỹ thuật và đạo đức. Tại Trung Quốc, Hàn Quốc và bang California ở Mỹ, đã có quy định cho deepfake. Ví dụ, bất cứ ai cố ý mô phỏng người nào đó trong video khiêu dâm mà chưa được phép có thể bị phạt 150.000 USD.

Marietje Schaake, Giám đốc chính sách quốc tế tại Trung tâm chính sách mạng Đại học Stanford, cho biết các luật mới cho không gian mạng, bao gồm Đạo luật AI được đề xuất ở Mỹ và GDPR ở châu Âu có thể điều chỉnh lại phạm vi hoạt động của công nghệ deepfake, nhưng vẫn còn nhiều lỗ hổng. Bà cho rằng nhiều nạn nhân của deepfake có thể sợ lên tiếng tố cáo.

Vào tháng 10, các nhà nghiên cứu tại Nghị viện châu Âu nói cần quy trách nhiệm cho nhiều tác nhân khác nhau, như nhà phát triển hoặc phân phối video khiêu dâm deepfake.

“Ngày nay, chỉ người đăng video phải chịu trách nhiệm. Tuy nhiên, nhiều người đã sử dụng các biện pháp khác nhau để phát tán video mà không bị lộ danh tính. Sự can thiệp cụ thể của luật pháp với nội dung khiêu dâm deepfake còn thiếu”, Reuters dẫn lời các nhà nghiên cứu.

Mỹ Quyên (theo Reuters)

[ad_2]