Trong khi nhiều người đang chào đón AI sáng tạo trong ngành giải trí vì nó có thể giúp tạo ra nội dung độc đáo với lợi thế về thời gian và chi phí, thì điều này có thể trở thành một vấn đề đối với người sáng tạo. Phim tài liệu có thể bóp méo hình ảnh và thông tin trong quá khứ mà người xem không hề hay biết.
Đây chính xác là điều đang khiến Netflix bị chỉ trích khi bị phát hiện sử dụng hình ảnh do AI tạo ra trong bộ phim tài liệu mang tên “What Jennifer Did” – một trong những loạt phim được xem nhiều nhất trên toàn thế giới. nhu cầu của nền tảng này. Phim kể về Jennifer Pan, hiện đang bị giam giữ ở Canada vì âm mưu thuê người sát hại cha mẹ cô. Khi ra mắt vào đầu tháng 4, bộ phim đã thu hút được rất nhiều fan của thể loại tội phạm hiện thực.
Nhưng đồng thời, bộ phim cũng trở thành tâm điểm tranh cãi khi nhiều khán giả nhanh chóng nhận ra những sai sót rõ ràng trong hình ảnh được sử dụng trong phim, từ đôi khuyên tai không khớp cho đến chiếc mũi thiếu lỗ mũi.
Trang tin tức Futurism là một trong những trang đầu tiên chỉ ra những hình ảnh thiếu sót này, cho rằng chúng “có tất cả những đặc điểm nổi bật của hình ảnh do AI tạo ra, từ bàn tay và ngón tay bị biến dạng cho đến khuôn mặt bị biến dạng”. biến dạng, các vật thể bị biến dạng ở hình nền và chiếc răng cửa quá dài.” Netflix thậm chí còn sử dụng hình ảnh khuôn mặt có răng cửa quá dài làm poster cho bộ phim.
Điều đáng chú ý nhất là phần credit cuối phim không đề cập đến việc sử dụng AI trong phim, khiến giới phê bình càng lớn tiếng chỉ trích nhà sản xuất bộ phim tài liệu này sử dụng hình ảnh do AI tạo ra. được tạo ra để tô điểm cho các sự kiện có thật trong đời sống.
Tuy nhiên, cũng có người phản đối tuyên bố này. Jeremy Grimaldi, một phóng viên tội phạm, người đã viết một cuốn sách về vụ án và cung cấp bộ phim tài liệu về nghiên cứu và cảnh quay của cảnh sát, nói với Toronto Star rằng những hình ảnh này không phải do AI tạo ra. .
Grimaldi khẳng định tất cả hình ảnh của Pan sử dụng trong phim đều là ảnh thật. Ông cho biết một số hình ảnh đã được chỉnh sửa, không phải để làm mờ ranh giới giữa sự thật và hư cấu mà để bảo vệ danh tính nguồn gốc của những bức ảnh.
Grimaldi nói với The Star: “Bất kỳ nhà làm phim nào cũng sử dụng các công cụ khác nhau, như Photoshop, trong phim. Ảnh của Jennifer là ảnh thật của cô ấy. Tiền cảnh chính xác là cô ấy. Bối cảnh đã được ẩn danh để bảo vệ nguồn.”
Một người khác có lời giải thích hợp lý hơn cho tình huống này. Joe Foley, một nhiếp ảnh gia cho biết trong bài đăng trên blog của mình: “Các nhà làm phim tài liệu có thể cố gắng cải thiện độ phân giải của hình ảnh cũ bằng AI hoặc phần mềm khôi phục ảnh để chúng trông rõ hơn khi chiếu trên màn hình TV.Và vì vậy, đây có thể là nguyên nhân tạo ra một số hình ảnh méo mó thấy trong phim.
Vì vậy, ông Foley đề nghị Netflix “ít nhất” nên làm rõ rằng hình ảnh đã bị thay đổi “để tránh kiểu phản ứng dữ dội này”, lưu ý rằng “Bất kỳ hình thức xử lý hình ảnh nào trong phim tài liệu đều gây tranh cãi vì mục đích chung là trình bày mọi thứ như cũ.“
Kể từ khi xuất hiện AI có thể tạo video và hình ảnh bằng văn bản, chúng luôn là chủ đề gây tranh cãi và gây ra nhiều lo ngại. Trong khi các nhà biên kịch gọi các công cụ AI là cỗ máy đạo văn, chúng lại gây ra một rủi ro khác. Với mức độ chân thực của hình ảnh và video do AI tạo ra, chúng có thể lan truyền tin tức giả, thậm chí là kiến thức giả hoặc đánh lừa người xem.
Hiện tại, Raw TV, nhà sản xuất bộ phim tài liệu này cũng như Netflix vẫn chưa phản hồi yêu cầu bình luận của Arstechnica.
Link nguồn: https://cafef.vn/nhieu-hinh-anh-ky-quac-xuat-hien-trong-mot-phim-tai-lieu-nguoi-dung-phan-no-vi-nghi-ngo-netflix-dung-ai-tao-ra-hinh-anh-ma-khong-thong-bao-188240426110840844.chn