สารบัญ:

ของปลอมที่ล้ำลึก: Neuroset ถูกสอนให้สร้างเสียงและวิดีโอปลอม
ของปลอมที่ล้ำลึก: Neuroset ถูกสอนให้สร้างเสียงและวิดีโอปลอม

วีดีโอ: ของปลอมที่ล้ำลึก: Neuroset ถูกสอนให้สร้างเสียงและวิดีโอปลอม

วีดีโอ: ของปลอมที่ล้ำลึก: Neuroset ถูกสอนให้สร้างเสียงและวิดีโอปลอม
วีดีโอ: ชายดวงแข็ง ถูกเครื่องอัดขยะอัด 2 ครั้ง ไม่ตาย 2024, อาจ
Anonim

เพื่อสร้างภาพข่าว "บุคคล" สำหรับพวกเราคนใดคนหนึ่งและเพื่อปลอมแปลงรายงานของสื่อที่เลือกในนั้น ความพยายามของโปรแกรมเมอร์คนเดียวก็เพียงพอแล้วในทุกวันนี้ ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และความปลอดภัยทางไซเบอร์บอกกับ Izvestia เกี่ยวกับเรื่องนี้

ไม่นานมานี้พวกเขาคาดว่าสิ่งนี้ต้องการการทำงานของหลายทีม การเร่งความเร็วดังกล่าวเป็นไปได้ด้วยการพัฒนาเทคโนโลยีสำหรับการโจมตีเครือข่ายประสาทเทียมและการสร้างเสียงและวิดีโอปลอมโดยใช้โปรแกรมสำหรับสร้าง "ของปลอมอย่างลึกซึ้ง" หนังสือพิมพ์ Izvestia ถูกโจมตีในลักษณะเดียวกันเมื่อไม่นานนี้ เมื่อพอร์ทัลข่าวของลิเบีย 3 แห่งได้เผยแพร่ข้อความที่ถูกกล่าวหาว่าปรากฏในประเด็นใดประเด็นหนึ่งพร้อมกัน ตามที่ผู้เชี่ยวชาญระบุ ภายใน 3-5 ปี เราสามารถคาดหวังการบุกรุกของหุ่นยนต์ควบคุม ซึ่งจะสามารถสร้างของปลอมจำนวนมากได้โดยอัตโนมัติ

โลกใหม่ที่กล้าหาญ

มีโครงการมากขึ้นเรื่อย ๆ ที่ปรับภาพข้อมูลให้เข้ากับการรับรู้ของผู้ใช้เฉพาะราย ตัวอย่างหนึ่งของงานของพวกเขาคือการกระทำล่าสุดของพอร์ทัลลิเบียสามแห่งซึ่งตีพิมพ์ข่าวที่ถูกกล่าวหาว่าตีพิมพ์ในฉบับ Izvestia เมื่อวันที่ 20 พฤศจิกายน ผู้สร้างของปลอมแก้ไขหน้าแรกของหนังสือพิมพ์โดยโพสต์ข้อความเกี่ยวกับการเจรจาระหว่างจอมพล Khalifa Haftar และนายกรัฐมนตรีของรัฐบาลแห่งข้อตกลงแห่งชาติ (PNS) Fayez Sarraj ตัวปลอมในแบบอักษร Izvestia พร้อมรูปถ่ายของผู้นำทั้งสองที่ถ่ายในเดือนพฤษภาคม 2017 ป้ายที่มีโลโก้ของสิ่งพิมพ์ถูกตัดออกจากฉบับที่ตีพิมพ์จริงของวันที่ 20 พฤศจิกายน และข้อความอื่น ๆ ทั้งหมดบนหน้าจากฉบับวันที่ 23 ตุลาคม

จากมุมมองของผู้เชี่ยวชาญ ในอนาคตอันใกล้ การปลอมแปลงดังกล่าวสามารถทำได้โดยอัตโนมัติ

The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว
The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว

“ขณะนี้เทคโนโลยีปัญญาประดิษฐ์เปิดอย่างสมบูรณ์แล้ว และอุปกรณ์สำหรับรับและประมวลผลข้อมูลกำลังย่อขนาดและราคาถูกลง” ยูริ วิลซิเตอร์ ดุษฎีบัณฑิตสาขากายภาพและคณิตศาสตร์ ศาสตราจารย์แห่ง Russian Academy of Sciences หัวหน้าแผนก FSUE “GosNIIAS” บอกกับอิซเวสเทีย - ดังนั้นจึงมีความเป็นไปได้สูงที่ในอนาคตอันใกล้นี้ แม้จะไม่ใช่แม้แต่รัฐและองค์กรขนาดใหญ่ แต่เพียงแค่บุคคลธรรมดาทั่วไปก็สามารถดักฟังและสอดแนมเราได้ เช่นเดียวกับการบิดเบือนความจริง ในอีกไม่กี่ปีข้างหน้า การวิเคราะห์ความชอบของผู้ใช้จะเป็นไปได้ เพื่อโน้มน้าวเขาผ่านฟีดข่าวและการปลอมแปลงที่ชาญฉลาดมาก

ตามที่ Yuri Vilsiter เทคโนโลยีที่สามารถใช้สำหรับการแทรกแซงในสภาพแวดล้อมทางจิตนั้นมีอยู่แล้ว ตามทฤษฎีแล้ว หุ่นยนต์สามารถบุกรุกได้ในอีกไม่กี่ปีข้างหน้า จุดจำกัดในที่นี้อาจเป็นความจำเป็นในการรวบรวมฐานข้อมูลขนาดใหญ่ของตัวอย่างการตอบสนองของคนจริงต่อสิ่งเร้าเทียมพร้อมการติดตามผลระยะยาว การติดตามดังกล่าวอาจต้องใช้เวลาวิจัยอีกหลายปีก่อนที่จะได้รับการโจมตีแบบกำหนดเป้าหมายอย่างต่อเนื่อง

วิสัยทัศน์โจมตี

Alexey Parfentiev หัวหน้าแผนกวิเคราะห์ของ SearchInform ก็เห็นด้วยกับ Yuri Vilsiter ด้วย ตามที่เขาพูดผู้เชี่ยวชาญคาดการณ์การโจมตีบนโครงข่ายประสาทเทียมแล้วแม้ว่าตอนนี้จะไม่มีตัวอย่างดังกล่าวก็ตาม

- นักวิจัยจากการ์ตเนอร์เชื่อว่าภายในปี 2565 30% ของการโจมตีทางไซเบอร์ทั้งหมดจะมุ่งเป้าไปที่การทำลายข้อมูลที่เครือข่ายประสาทได้รับการฝึกอบรมและขโมยโมเดลการเรียนรู้ของเครื่องสำเร็จรูป ตัวอย่างเช่น รถยนต์ไร้คนขับอาจเริ่มเข้าใจผิดว่าคนเดินถนนมีวัตถุอื่น และเราจะไม่พูดถึงความเสี่ยงทางการเงินหรือชื่อเสียง แต่เกี่ยวกับชีวิตและสุขภาพของคนทั่วไปผู้เชี่ยวชาญเชื่อ

การโจมตีระบบการมองเห็นด้วยคอมพิวเตอร์กำลังดำเนินการเป็นส่วนหนึ่งของการวิจัยในขณะนี้ จุดประสงค์ของการโจมตีดังกล่าวคือทำให้โครงข่ายประสาทเทียมตรวจพบบางสิ่งในภาพที่ไม่มีอยู่ หรือกลับกันไม่เห็นว่ามีการวางแผนไว้อย่างไร

The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว
The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว

Vladislav Tushkanov นักวิเคราะห์เว็บที่ Kaspersky Lab อธิบายว่า "หนึ่งในหัวข้อที่กำลังพัฒนาอย่างแข็งขันในด้านการฝึกอบรมโครงข่ายประสาทเทียมคือสิ่งที่เรียกว่าการโจมตีจากฝ่ายตรงข้าม ("การโจมตีของฝ่ายตรงข้าม" - Izvestia) - ในกรณีส่วนใหญ่ จะมุ่งเป้าไปที่ระบบวิชันซิสเต็มของคอมพิวเตอร์ ในการดำเนินการโจมตีดังกล่าว ในกรณีส่วนใหญ่ คุณต้องมีสิทธิ์เข้าถึงโครงข่ายประสาทเทียม (ที่เรียกว่าการโจมตีแบบกล่องขาว) หรือผลการทำงาน (การโจมตีแบบกล่องดำ) อย่างเต็มรูปแบบ ไม่มีวิธีการใดที่สามารถหลอกลวงระบบการมองเห็นของคอมพิวเตอร์ได้ 100% ของกรณีทั้งหมด นอกจากนี้ยังมีการสร้างเครื่องมือที่ให้คุณทดสอบโครงข่ายประสาทเทียมเพื่อต้านทานการโจมตีของฝ่ายตรงข้ามและเพิ่มความต้านทาน

ในระหว่างการโจมตี ผู้โจมตีพยายามที่จะเปลี่ยนภาพที่รู้จักเพื่อให้โครงข่ายประสาทเทียมไม่ทำงาน บ่อยครั้งที่มีจุดรบกวนซ้อนทับบนภาพถ่าย คล้ายกับที่เกิดขึ้นเมื่อถ่ายภาพในห้องที่มีแสงน้อย บุคคลมักจะไม่สังเกตเห็นสัญญาณรบกวนดังกล่าวได้ดี แต่โครงข่ายประสาทเทียมเริ่มทำงานผิดปกติ แต่ในการดำเนินการโจมตีดังกล่าว ผู้โจมตีจำเป็นต้องเข้าถึงอัลกอริธึม

ตามที่ Stanislav Ashmanov ผู้อำนวยการทั่วไปของ Neuroset Ashmanov กล่าวว่าขณะนี้ยังไม่มีวิธีจัดการกับปัญหานี้ นอกจากนี้ เทคโนโลยีนี้มีให้สำหรับทุกคน: โปรแกรมเมอร์ทั่วไปสามารถใช้งานได้โดยดาวน์โหลดซอฟต์แวร์โอเพ่นซอร์สที่จำเป็นจากบริการ Github

The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว
The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว

- การโจมตีโครงข่ายประสาทเทียมเป็นเทคนิคและอัลกอริธึมสำหรับการหลอกลวงโครงข่ายประสาทเทียม ซึ่งทำให้ได้ผลลัพธ์ที่ผิดพลาด และในความเป็นจริง พังเหมือนล็อคประตู - Ashmanov เชื่อ - ตัวอย่างเช่น ตอนนี้มันค่อนข้างง่ายที่จะทำให้ระบบจดจำใบหน้าคิดว่าไม่ใช่คุณ แต่ Arnold Schwarzenegger อยู่ข้างหน้า - ทำได้โดยผสมสารที่มองไม่เห็นด้วยตามนุษย์เข้ากับข้อมูลที่มาถึงโครงข่ายประสาทเทียม การโจมตีแบบเดียวกันนี้เป็นไปได้สำหรับระบบรู้จำเสียงและการวิเคราะห์

ผู้เชี่ยวชาญมั่นใจว่ามันจะยิ่งแย่ลงไปอีก - เทคโนโลยีเหล่านี้ได้เผยแพร่สู่สายตาคนทั่วไปแล้ว ผู้โจมตีใช้พวกเขาอยู่แล้ว และไม่มีการป้องกันใด ๆ ต่อพวกเขา เนื่องจากไม่มีการป้องกันการสร้างวิดีโอและเสียงปลอมโดยอัตโนมัติ

ของปลอม Deep

เทคโนโลยี Deepfake ที่อิงจาก Deep Learning (เทคโนโลยีการเรียนรู้เชิงลึกของโครงข่ายประสาทเทียม - Izvestia) ได้ก่อให้เกิดภัยคุกคามอย่างแท้จริงแล้ว วิดีโอหรือเสียงปลอมถูกสร้างขึ้นโดยการแก้ไขหรือซ้อนใบหน้าของบุคคลที่มีชื่อเสียงซึ่งควรจะออกเสียงข้อความที่จำเป็นและมีบทบาทที่จำเป็นในโครงเรื่อง

"Deepfake ช่วยให้คุณสามารถแทนที่การเคลื่อนไหวของริมฝีปากและคำพูดของมนุษย์ด้วยวิดีโอ ซึ่งสร้างความรู้สึกสมจริงของสิ่งที่เกิดขึ้น" Andrey Busargin ผู้อำนวยการแผนกนวัตกรรมการปกป้องแบรนด์และทรัพย์สินทางปัญญาของ Group-IB กล่าว - คนดังปลอม "เสนอ" ผู้ใช้บนโซเชียลเน็ตเวิร์กเพื่อมีส่วนร่วมในการจับรางวัลอันมีค่า (สมาร์ทโฟน, รถยนต์, เงินจำนวน) ฯลฯ ลิงก์จากสิ่งพิมพ์วิดีโอดังกล่าวมักนำไปสู่ไซต์หลอกลวงและฟิชชิ่ง ซึ่งผู้ใช้จะถูกขอให้ป้อนข้อมูลส่วนบุคคล รวมถึงรายละเอียดบัตรธนาคาร แผนการดังกล่าวเป็นภัยคุกคามต่อทั้งผู้ใช้ทั่วไปและบุคคลสาธารณะที่กล่าวถึงในโฆษณา การหลอกลวงแบบนี้เริ่มเชื่อมโยงภาพคนดังกับการหลอกลวงหรือสินค้าโฆษณา และนี่คือจุดที่เราพบความเสียหายต่อแบรนด์ส่วนบุคคล เขากล่าว

The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว
The Truman Show - 2019: วิธีที่โครงข่ายประสาทเทียมสอนให้ปลอมภาพข่าว

ภัยคุกคามอีกประการหนึ่งเกี่ยวข้องกับการใช้ "โหวตปลอม" สำหรับการฉ้อโกงทางโทรศัพท์ ตัวอย่างเช่น ในเยอรมนี อาชญากรไซเบอร์ใช้ voice deepfake เพื่อทำให้หัวหน้าบริษัทในเครือจากสหราชอาณาจักรโอนเงินจำนวน 220,000 ยูโรในการสนทนาทางโทรศัพท์อย่างเร่งด่วน โดยปลอมเป็นผู้จัดการบริษัทในบัญชีของซัพพลายเออร์ชาวฮังการี หัวหน้าบริษัทอังกฤษสงสัยว่าจะมีกลอุบายเมื่อ "เจ้านาย" ของเขาขอธนาณัติฉบับที่สอง แต่สายนั้นมาจากหมายเลขออสเตรีย มาถึงตอนนี้ ชุดแรกได้ถูกโอนไปยังบัญชีในฮังการีแล้ว จากที่เงินถูกถอนไปยังเม็กซิโก

ปรากฎว่าเทคโนโลยีในปัจจุบันช่วยให้คุณสร้างภาพข่าวแต่ละภาพที่เต็มไปด้วยข่าวปลอม ยิ่งไปกว่านั้น ในไม่ช้าจะสามารถแยกแยะของปลอมจากวิดีโอและเสียงจริงด้วยฮาร์ดแวร์เท่านั้น ผู้เชี่ยวชาญระบุว่า มาตรการที่ห้ามไม่ให้มีการพัฒนาโครงข่ายประสาทเทียมนั้นไม่น่าจะได้ผล ดังนั้นในไม่ช้าเราจะอยู่ในโลกที่จำเป็นต้องตรวจสอบทุกอย่างใหม่อย่างต่อเนื่อง

“เราต้องเตรียมตัวสำหรับสิ่งนี้ และสิ่งนี้ต้องได้รับการยอมรับ” ยูริ วิลซิเตอร์ เน้นย้ำ - มนุษยชาติไม่ใช่ครั้งแรกที่ส่งต่อจากความเป็นจริงที่หนึ่งไปยังอีกที่หนึ่ง โลก วิถีชีวิต และค่านิยมของเราแตกต่างอย่างสิ้นเชิงจากโลกที่บรรพบุรุษของเราอาศัยอยู่เมื่อ 60,000 ปีก่อน 5,000 ปีก่อน 2,000 ปีก่อนและ 200-100 ปีที่แล้ว ในอนาคตอันใกล้นี้ คนๆ หนึ่งจะถูกกีดกันความเป็นส่วนตัวเป็นส่วนใหญ่ ดังนั้นจึงถูกบังคับให้ไม่ปิดบังและกระทำการอย่างตรงไปตรงมา ในเวลาเดียวกัน ไม่มีสิ่งใดในความเป็นจริงโดยรอบและในบุคลิกภาพของตนเองสามารถยึดถือศรัทธาได้ ทุกอย่างจะต้องถูกสอบสวนและตรวจสอบใหม่อย่างต่อเนื่อง แต่ความเป็นจริงในอนาคตนี้จะเลวร้ายหรือไม่? ไม่. มันจะแตกต่างไปจากเดิมอย่างสิ้นเชิง