Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

(Dân trí) - Deepfake đã làm phức tạp đáng kể vấn đề hình ảnh, video trên Internet trong những năm gần đây

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Sau tin đồn lộ clip nóng giả, Ninh Dương Lan Ngọc lên tiếng

Do bị lộ clip đen vào ngày 2/3, từ khóa tìm kiếm "Ninh Dương Lan Ngọc" bất ngờ vươn lên dẫn đầu Google Trends, bất chấp nhân vật trong clip thực chất là một "diễn viên". "

Lê Duy Tường, đại diện cho Ninh Dương Lan Ngọc, lên tiếng khẳng định công nghệ deepfake là nguyên nhân dẫn đến scandal chấn động cộng đồng mạng ngày hôm qua trong một đoạn chia sẻ được cô đăng tải trên Facebook cá nhân.

Vậy deepfake là gì?

Để vui "bệnh" hãy đi từ ứng dụng giải trí triệu like

Bạn phải làm quen với FaceApp, Faceswap, Doublicat hoặc gần đây nhất là Avatarify nếu bạn thích cập nhật ứng dụng máy ảnh và chỉnh sửa ảnh trên thiết bị di động

Tất cả các ứng dụng này đều có chung khả năng phân tích các chuyển động trên khuôn mặt của bạn bằng các thuật toán, sau đó các thuật toán này sẽ được ghép vào ảnh chân dung của người khác hoặc được sử dụng để định hình lại khuôn mặt của bạn

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Cộng đồng mạng phát sốt với deepfake đóng giả Tom Cruise vì quá giống "phiên bản thật". "

Khi chúng ta xuất hiện trước ống kính để hóa thân thành các nhân vật hoạt hình hay nhân vật nổi tiếng cách đây khoảng 4, 5 năm, những ứng dụng này đã gây ra những tràng cười sảng khoái.

Khả năng "bóp méo sự thật" đã được cải thiện bởi một khái niệm mới được gọi là deepfake, là từ ghép của các từ "deep learning" và "fake". "

Các video ngắn với nội dung rõ ràng thể hiện tính chân thực của hình ảnh có sức mạnh thay đổi nhận thức của người xem để họ tin vào những gì họ nhìn thấy mà không do dự

Một sự cố hấp dẫn xảy ra gần đây và được báo cáo trên mạng xã hội liên quan đến một lập trình viên đã vào phòng trò chuyện Zoom bằng khuôn mặt của tỷ phú Elon Musk

Ở cuối video, những người trong phòng biết được rằng người vừa tham gia phòng chat không phải là CEO của Tesla mà đây chỉ đơn giản là một trò giả mạo sâu sắc. Kết quả là hành động này đã khiến những người trong phòng vô cùng bất ngờ, sửng sốt và hoàn toàn tin rằng “cổ hủ. "

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Lập trình viên gây sốc cho mọi người trong phòng chat Zoom khi dùng deep fake có hình tỷ phú Elon Musk

Bản thân ứng dụng Avatarify gần đây đã nhận được hàng chục nghìn lượt tải xuống và tạo ra doanh thu khoảng 6000 đô la. Đây cũng là ứng dụng rất được giới trẻ yêu thích và được đánh giá 5 sao

Cách đây ít lâu, câu chuyện về ứng dụng FaceApp đã làm “điên đảo” cộng đồng mạng với những biến tấu hình ảnh hài hước nhưng vô cùng chân thực, khiến người ta vừa sợ vừa thích thú vì “sức mạnh” của nó. "

Từ khóa deepfake trở nên phổ biến theo thời gian, nhưng các lập trình viên bắt đầu nhắm đến những mục tiêu nham hiểm hơn là tạo ra nội dung hài hước. Liên quan đến các clip sex giả mạo, nội dung 18+ lấy chủ thể là người nổi tiếng, thậm chí là chính trị gia, quan chức cấp cao,

Người ta sẵn sàng cười và thích thú khi xem ai đó xuất hiện trong một clip nóng - dù họ biết chắc chắn rằng họ không hề có mặt, hay thậm chí không biết đến sự tồn tại của video đó. Tiếng cười vẫn còn đó nhưng giờ đây đầy cảm xúc chứ không chỉ là giải trí

Vì phần mềm được sử dụng để tạo ra những video giả mạo này rất phổ biến trên các trang web chia sẻ nguồn như Github hoặc Github, nên việc sử dụng công nghệ deepfake cũng trở nên đơn giản hơn bao giờ hết.

Giờ đây, bất kỳ ai có một chút chuyên môn về máy tính và một cỗ máy đủ mạnh đều có thể tải xuống bộ công cụ và tạo video deepfake của riêng mình với bất kỳ ai họ muốn với tư cách là "khách". "

Bất cứ ngôi sao điện ảnh nào, kể cả Scarlett Johansson, Gal Gadot, Emma Watson.. đều không thể thoát khỏi "bóng ma Internet" đeo bám họ kể cả khi họ lên tiếng.

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Gal Gadot thường xuyên xuất hiện trong các bộ phim khiêu dâm

"Bóng ma" Deepfake trỗi dậy

Theo thống kê từ Deeptrace, một công ty có trụ sở tại Amsterdam chuyên xác định nội dung do trí tuệ nhân tạo sản xuất, có tới 96% video deepfake có nội dung phản cảm.

Ngoài ra, doanh nghiệp này tuyên bố rằng tính đến tháng 12 năm 2020, đã có 14. 678 video deepfake trực tuyến, tăng 84% so với con số của năm trước

Theo Deeptrace, "tác động của deepfake đã được cảm nhận trên phạm vi toàn cầu" và nạn nhân chủ yếu là phụ nữ được sử dụng để tạo các video khiêu dâm không có sự đồng thuận bằng AI

Tuy nhiên, nếu chỉ có phản ứng từ một phía thì việc phát triển deepfake không thể bùng nổ

Trên thực tế, người dùng vẫn tìm cách xem, chia sẻ và thưởng thức nội dung bất chấp nhiều nỗ lực ngăn chặn các nền tảng như Facebook và Google lưu trữ video deepfake khi chúng "bẻ cong" sự thật.

Chúng tôi đã gián tiếp trao thêm quyền lực cho cộng đồng deepfake, khiến chúng trở nên hoàn thiện hơn và khó phân biệt hơn do phản ứng có vẻ như không cố ý này

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Deep fake ngày càng trở nên chính xác hơn khi công nghệ tiến bộ, trở nên vô hình đối với những người quen thuộc với chúng

Các xu hướng công nghệ mới sẽ tiếp tục xuất hiện trừ khi các biện pháp ngăn chặn được đưa ra, bằng chứng là lượng người xem khổng lồ đối với các video deepfake, chứng tỏ sự tồn tại của một thị trường nơi các trang web sản xuất và lưu trữ video khiêu dâm sử dụng công nghệ này

Vào tháng 3 năm 2019, một nhóm tội phạm đã sử dụng deepfake và AI để mạo danh CEO của một công ty có trụ sở tại Đức nhằm lừa đảo người lao động. Deepfake cũng bị kẻ xấu lợi dụng để lừa đảo, thao túng thị trường

Do sự phân biệt giữa thật và giả rất mỏng manh, deepfake có nguy cơ khiến ngay cả những người dùng am hiểu cũng có thể bị lừa

Deepfake cũng lan truyền thông tin sai lệch, kích động bạo lực và khiến mọi người đặt câu hỏi về mọi thứ xung quanh họ ở một số quốc gia

Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Có thể nói, vấn đề hình ảnh, video trên Internet đang trở nên thách thức hơn bao giờ hết nhờ sự phát triển của công nghệ deepfake AI trong những năm gần đây

Hãy tưởng tượng một ngày nào đó bạn tìm thấy video của chính mình hoặc của vợ, người thân hoặc con cái của chúng ta xuất hiện trên Internet và được gắn thẻ có nội dung sai sự thật và do deepfake tạo ra. Khi đó chắc chắn bạn sẽ hiểu được "mặt tối" của công nghệ. Hãy tưởng tượng một ngày nào đó, bạn tìm thấy những video của chính mình, hoặc của vợ, người thân, con cái của chúng ta xuất hiện trên Internet và được gắn thẻ nội dung. . Chắc chắn khi đó, bạn sẽ hiểu được những “mặt tối” của công nghệ.

Điều gì sẽ xảy ra khi công nghệ deepfake khiến tin giả trở thành tiêu đề hàng đầu mỗi sáng hoặc khi những người nổi tiếng giả mạo sử dụng mạng xã hội để lan truyền thông tin sai lệch?

Tin tức liên quan
Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Kinh ngạc với khả năng hoán đổi khuôn mặt của công nghệ Deepfake

Một YouTuber gây chú ý khi thay đổi khuôn mặt các siêu anh hùng trong tựa phim Avengers bằng AI Deepfake
Từ vụ lộ clip đen. Deepfake ẩn chứa nhiều hiểm họa, sao giới trẻ vẫn mê mẩn?

Tom Cruise hóa thân thành Iron Man lý tưởng "không tì vết" trong siêu phẩm Deepfake

Tom Cruise xuất hiện trong một số cảnh phim Iron Man thay cho Robert Downey Jr. nhờ công nghệ Deepfake mà một kênh YouTube đã thực hiện dễ dàng

Tháng trước đã giới thiệu GPT-3, biên giới tiếp theo của văn bản tổng quát. một AI có thể tạo ra những câu nghe giống con người đến kinh ngạc (nếu đôi khi siêu thực). Khi đầu ra của nó trở nên khó phân biệt hơn bao giờ hết với văn bản do con người tạo ra, người ta có thể tưởng tượng ra một tương lai trong đó phần lớn nội dung bằng văn bản mà chúng ta thấy trên internet được tạo ra bởi máy móc. Nếu điều này xảy ra, nó sẽ thay đổi cách chúng ta phản ứng với nội dung bao quanh chúng ta như thế nào?

Đây sẽ không phải là điểm uốn truyền thông đầu tiên như vậy mà ý thức của chúng ta về những gì thực sự thay đổi cùng một lúc. Khi Photoshop, After Effects và các công cụ chỉnh sửa hình ảnh và CGI khác bắt đầu xuất hiện cách đây ba thập kỷ, tiềm năng biến đổi của những công cụ này đối với nỗ lực nghệ thuật—cũng như tác động của chúng đối với nhận thức của chúng ta về thế giới—đã được công nhận ngay lập tức. “Adobe Photoshop dễ dàng là chương trình thay đổi cuộc sống nhiều nhất trong lịch sử xuất bản,” một bài báo Macworld từ năm 2000 tuyên bố, thông báo về sự ra mắt của Photoshop 6. 0. “Ngày nay, các nghệ sĩ giỏi thêm các nét hoàn thiện bằng cách Photoshop tác phẩm nghệ thuật của họ và các nhà khiêu dâm sẽ không có gì để cung cấp ngoại trừ thực tế nếu họ không Photoshop từng đồ họa của họ. ”

Chúng tôi đã chấp nhận công nghệ đó đúng với bản chất của nó và phát triển một thái độ hoài nghi lành mạnh. Ngày nay rất ít người tin rằng một trang bìa tạp chí được tô vẽ bằng không khí cho thấy người mẫu đúng như bản chất của họ. (Trên thực tế, nội dung chưa qua Photoshop thường thu hút sự chú ý của công chúng. ) Tuy nhiên, chúng tôi cũng không hoàn toàn tin vào những bức ảnh như vậy. Mặc dù thỉnh thoảng có những cuộc tranh luận sôi nổi về tác động của việc bình thường hóa kỹ thuật phun khí—hoặc ngày nay có liên quan hơn, lọc—chúng tôi vẫn tin tưởng rằng các bức ảnh thể hiện người thật được chụp tại một thời điểm cụ thể. Chúng tôi hiểu rằng mỗi bức tranh đều bắt nguồn từ thực tế

Phương tiện được tạo, chẳng hạn như video được làm giả sâu hoặc đầu ra GPT-3, sẽ khác. Nếu được sử dụng với mục đích ác ý, sẽ không có bản gốc không bị chỉnh sửa, không có tài liệu thô nào có thể được tạo ra để làm cơ sở so sánh hoặc bằng chứng để kiểm tra thực tế. Vào đầu những năm 2000, thật dễ dàng để mổ xẻ những bức ảnh trước và sau của những người nổi tiếng và thảo luận xem liệu những bức ảnh sau có tạo ra những lý tưởng phi thực tế về sự hoàn hảo hay không. Vào năm 2020, chúng ta phải đối mặt với những vụ tráo đổi khuôn mặt người nổi tiếng ngày càng hợp lý trên phim khiêu dâm và các clip trong đó các nhà lãnh đạo thế giới nói những điều họ chưa từng nói trước đây. Chúng ta sẽ phải điều chỉnh và thích nghi với một mức độ phi thực tế mới. Ngay cả các nền tảng truyền thông xã hội cũng nhận ra sự khác biệt này;

Văn bản được tạo phổ biến có khả năng làm cong hệ sinh thái giao tiếp xã hội của chúng ta

Tuy nhiên, để kiểm duyệt nội dung deepfake, bạn phải biết nó ở đó. Trong số tất cả các hình thức hiện có, video có thể trở thành hình thức dễ phát hiện nhất. Các video do AI tạo thường có kỹ thuật số cho biết đầu ra rơi vào thung lũng kỳ lạ ở đâu. "sinh trắc học mềm" chẳng hạn như chuyển động trên khuôn mặt của một người bị tắt; . Nhiều món quà trong số này có thể được khắc phục bằng các chỉnh sửa phần mềm. Chẳng hạn, trong các video deepfake năm 2018, chủ thể chớp mắt thường bị sai; . Âm thanh được tạo ra có thể tinh tế hơn—không có hình ảnh nên ít cơ hội mắc lỗi hơn—nhưng những nỗ lực nghiên cứu đầy hứa hẹn cũng đang được tiến hành để loại bỏ những điều đó. Cuộc chiến giữa những kẻ giả mạo và những người xác thực sẽ tiếp tục không ngừng

Có lẽ quan trọng nhất, công chúng ngày càng nhận thức được công nghệ. Trên thực tế, kiến ​​thức đó cuối cùng có thể gây ra một loại rủi ro khác, liên quan và khác biệt với bản thân âm thanh và video được tạo. Giờ đây, các chính trị gia sẽ có thể loại bỏ các video thực, tai tiếng dưới dạng các cấu trúc nhân tạo chỉ bằng cách nói: “Đó là một trò giả mạo sâu sắc. ” Trong một ví dụ ban đầu về điều này, từ cuối năm 2017, những người thay thế trực tuyến nhiệt tình hơn của tổng thống Hoa Kỳ đã gợi ý (rất lâu sau cuộc bầu cử) rằng đoạn băng “lấy lấy em” bị rò rỉ của Access Hollywood có thể được tạo bởi một sản phẩm giọng nói tổng hợp có tên Adobe Voco.

Nhưng văn bản tổng hợp - đặc biệt là loại hiện đang được sản xuất - đưa ra một biên giới đầy thách thức hơn. Nó sẽ dễ dàng tạo ra với số lượng lớn và ít yêu cầu kích hoạt tính năng phát hiện hơn. Thay vì được triển khai vào những thời điểm nhạy cảm để tạo ra một vụ bê bối nhỏ hoặc Điều bất ngờ trong tháng 10, như trường hợp đối với video hoặc âm thanh tổng hợp, thay vào đó, văn bản giả mạo có thể được sử dụng hàng loạt, để thêu dệt nên một tấm màn dối trá phổ biến. Như bất kỳ ai đã theo dõi một hashtag nóng bỏng trên Twitter đều có thể chứng thực, các nhà hoạt động và nhà tiếp thị đều nhận ra giá trị của việc thống trị cái được gọi là “chia sẻ tiếng nói”. Việc nhìn thấy nhiều người bày tỏ cùng một quan điểm, thường là cùng một lúc hoặc cùng một địa điểm, có thể thuyết phục những người quan sát rằng mọi người đều cảm thấy theo một cách nào đó, bất kể những người đang nói có thực sự đại diện hay thậm chí là thực tế hay không. Trong tâm lý học, điều này được gọi là ảo tưởng số đông. Khi thời gian và nỗ lực cần thiết để tạo ra các bài bình luận giảm xuống, sẽ có thể tạo ra một lượng lớn nội dung do AI tạo ra về bất kỳ chủ đề nào có thể tưởng tượng được. Thật vậy, có thể chúng ta sẽ sớm có các thuật toán đọc web, hình thành “ý kiến” và sau đó xuất bản phản hồi của riêng chúng. Kho nội dung và nhận xét mới vô tận này, phần lớn được tạo ra bởi máy móc, sau đó có thể được xử lý bởi các máy khác, dẫn đến một vòng phản hồi sẽ làm thay đổi đáng kể hệ sinh thái thông tin của chúng ta

Chúng ta sẽ phải điều chỉnh và thích nghi với một mức độ phi thực tế mới

Ngay bây giờ, có thể phát hiện các nhận xét lặp đi lặp lại hoặc tái chế sử dụng cùng một đoạn văn bản để tràn ngập phần nhận xét, tạo hashtag trên Twitter hoặc thuyết phục khán giả thông qua các bài đăng trên Facebook. Chiến thuật này đã được quan sát thấy trong một loạt các chiến dịch thao túng trước đây, bao gồm cả những chiến dịch nhắm mục tiêu chính phủ Hoa Kỳ kêu gọi bình luận công khai về các chủ đề như cho vay ngắn hạn và chính sách trung lập mạng của FCC. Một phân tích của Tạp chí Phố Wall về một số trường hợp này đã phát hiện ra hàng trăm nghìn đóng góp đáng ngờ, được xác định là như vậy vì chúng chứa các câu dài, lặp đi lặp lại mà không chắc là do những người khác nhau soạn ra một cách tự nhiên. Nếu những bình luận này được tạo ra một cách độc lập—ví dụ như bởi một AI—thì những chiến dịch thao túng này sẽ khó bị loại bỏ hơn nhiều

Trong tương lai, các video giả mạo sâu và giả mạo âm thanh có thể được sử dụng để tạo ra những khoảnh khắc khác biệt, giật gân thu hút một chu kỳ báo chí hoặc để đánh lạc hướng khỏi một số vụ bê bối hữu cơ khác. Nhưng những tin nhắn văn bản không thể phát hiện được — được ngụy trang dưới dạng trò chuyện thường xuyên trên Twitter, Facebook, Reddit và những thứ tương tự — có khả năng tinh vi hơn, phổ biến hơn và độc ác hơn nhiều. Khả năng tạo ra ý kiến ​​đa số hoặc tạo ra một cuộc chạy đua vũ trang của những người bình luận giả mạo—với khả năng bị phát hiện tối thiểu—sẽ cho phép các chiến dịch gây ảnh hưởng sâu rộng và tinh vi. Văn bản được tạo phổ biến có khả năng làm cong hệ sinh thái giao tiếp xã hội của chúng ta. nội dung được tạo theo thuật toán sẽ nhận được các phản hồi được tạo theo thuật toán, phản hồi này sẽ đưa vào các hệ thống quản lý trung gian theo thuật toán để hiển thị thông tin dựa trên mức độ tương tác

Niềm tin của chúng tôi dành cho nhau đang bị phân mảnh và sự phân cực ngày càng phổ biến. Vì tất cả các loại phương tiện truyền thông tổng hợp—văn bản, video, ảnh và âm thanh—ngày càng phổ biến và khi việc phát hiện trở nên khó khăn hơn, chúng tôi sẽ thấy ngày càng khó tin vào nội dung mà chúng tôi xem. Có thể không đơn giản để thích nghi, như chúng ta đã làm với Photoshop, bằng cách sử dụng áp lực xã hội để điều chỉnh mức độ sử dụng các công cụ này và chấp nhận rằng phương tiện truyền thông xung quanh chúng ta không hoàn toàn như vẻ ngoài của nó. Lần này, chúng ta cũng sẽ phải học cách trở thành người tiêu dùng quan trọng hơn đối với nội dung trực tuyến, đánh giá nội dung dựa trên giá trị của nó hơn là mức độ phổ biến của nó

Làm thế nào các video deep fake có thể được sử dụng trong cuộc sống hàng ngày và có tác động tích cực?

Ví dụ: công nghệ Deepfake có thể được sử dụng trong y học và các hệ thống giáo dục bằng cách tạo công cụ học tập và cũng có thể được sử dụng làm tính năng trợ năng trong công nghệ. In particular, the technology can recreate persons in history and can be used in gaming and the arts.

Ý nghĩa xã hội của deepfakes là gì?

Deepfakes cũng có hậu quả giữa các cá nhân. Như các nghiên cứu VR đã mô tả đã đề xuất, video deepfake có khả năng sửa đổi ký ức của chúng ta và thậm chí cấy ghép ký ức sai, đồng thời chúng cũng có thể thay đổi thái độ của một người đối với mục tiêu của deepfake.

Chúng ta có nên lo lắng về hàng giả sâu?

Deepfakes cực kỳ khó phân biệt với thực tế, cho dù vô lý đến đâu. Mặc dù hầu hết các deepfake được tìm thấy trên mạng xã hội hoàn toàn nhằm mục đích giải trí và hài kịch, nhiều chuyên gia tin rằng chúng có thể gây ra mối đe dọa nghiêm trọng cho công chúng .

Khi nào hàng giả sâu trở nên phổ biến?

Trong khi Nvidia vẫn đang cải thiện GAN của riêng mình, thì “deepfakes” của người dùng Reddit đang chiếm lĩnh công nghệ chủ đạo. Vào mùa thu năm 2017 , phim khiêu dâm deepfake đầu tiên mang tên anh ấy đã xuất hiện, trong đó khuôn mặt của các nữ diễn viên khiêu dâm được hoán đổi với khuôn mặt của những phụ nữ nổi bật.