![Happy New Year](https://i.ytimg.com/vi/EaQ4pAhf0nw/hqdefault.jpg)
เนื้อหา
- เรื่องราวที่ดีนั้นน่าสนใจยิ่งกว่าความจริงทั้งหมด
- ยังคงเห็นความเชื่ออยู่ใช่ไหม
- ปลอมไม่ได้
- ไม่มีข้อบกพร่องไม่มีความเครียด - คู่มือแบบเป็นขั้นตอนเพื่อสร้างซอฟต์แวร์ที่เปลี่ยนแปลงชีวิตโดยไม่ทำลายชีวิตของคุณ
- ผลลัพธ์ที่เป็นไปได้
- การวางแผนเชิงรุก
ที่มา: Mike2focus / Dreamstime.com
Takeaway:
การใช้สื่อมีการพัฒนาควบคู่ไปกับความก้าวหน้าทางเทคโนโลยีเช่นปัญญาประดิษฐ์ (AI) ในขณะที่เรายอมรับความก้าวหน้าโดยทั่วไปเราต้องตระหนักถึงข้อเสียของเทคโนโลยีบางรูปแบบด้วย ความสามารถของ AI นั้นเป็นด้านมืดเมื่อใช้เพื่อส่งเสริมข่าวปลอม
ด้านมืดของเทคโนโลยีเป็นหนึ่งในหัวข้อที่สำรวจในการประชุม Machines + Media ครั้งที่สองของ NYC Media Lab ซึ่งได้รับการสนับสนุนและเป็นเจ้าภาพโดย Bloomberg ที่สำนักงานใหญ่ระดับโลกในเมืองเมื่อวันที่ 15 พฤษภาคมถึงแม้ว่าบางส่วนของการประชุมจะเกี่ยวกับเทคโนโลยี ปัจจุบันมีให้บริการสำหรับสื่อแม้กระทั่งสื่อนำเสนอเงาของการจัดการและข้อมูลที่ผิด
เรื่องราวที่ดีนั้นน่าสนใจยิ่งกว่าความจริงทั้งหมด
ในหัวข้อเรื่อง "State of the Art" Gilad Lotan, หัวหน้าฝ่ายข้อมูลวิทยาศาสตร์, Buzzfeed ชี้ให้เห็นว่าปัญหาของการปลอมหรือข่าวที่ทำให้เข้าใจผิดไม่สามารถตำหนิเพียง บริษัท สื่อหรือเทคโนโลยีใหม่ “ ผู้คนไม่จำเป็นต้องค้นหาข้อเท็จจริง” เขากล่าว “ ผู้อ่านต้องการเรื่องราว”
เขาเสริมว่าการให้อาหารที่ต้องการเรื่องราวและเรื่องเล่าที่ได้รับความนิยมนั้นอาจส่งผลให้เกิดข่าวปลอมที่ว่า“ มีการบิดเบือนมากกว่าข้อมูลเท็จ” อันที่จริงเรื่องราวที่ส่งนั้นอาจไม่รวมถึงสิ่งที่ผิดทั้งหมด สิ่งที่เป็นของปลอมเกี่ยวกับเรื่องนี้คือข้อเท็จจริงที่รายงานนั้นถูกคัดสรรโดยเชอร์รี่และนำออกจาก "การต่อต้าน" ที่มีขนาดใหญ่ขึ้นเพื่อนำไปสู่ "ผู้อ่านไปสู่ข้อสรุป"
ตามแนวเดียวกันในช่วง "แพลตฟอร์ม + สื่อ" เคลลี่เกิดจากวิลเลียมและมูลนิธิฟลอราฮิวเล็ตต์ของเราโครงการริเริ่มประชาธิปไตยกล่าวว่า“ ผู้คนชอบข่าวที่ตอกย้ำความเชื่อของพวกเขาและโดยเฉพาะอย่างยิ่ง เมื่อแนวโน้มนั้นสามารถนำไปสู่ "พายุที่สมบูรณ์แบบ" ซึ่งนำพาสิ่งที่เลวร้ายที่สุดมาให้เรา สิ่งนี้เลวร้ายลงเนื่องจากความเป็นไปได้ของการนำเสนอที่ประดิษฐ์ขึ้นมาอย่างสมบูรณ์
ยังคงเห็นความเชื่ออยู่ใช่ไหม
เทคโนโลยีมีบทบาทในการบอกเล่าเรื่องราวผ่านภาพและวิดีโอ เรามักจะเชื่อในสิ่งที่เราเห็นเว้นแต่จะมีสัญญาณที่ชัดเจนของการจัดการ อย่างไรก็ตามเนื่องจาก AI ปรับปรุงความสมจริงของวิดีโอปลอมตอนนี้จึงเป็นไปได้ที่จะใส่คำเข้าไปในปากของบุคคลสาธารณะ (AI ไม่ได้ถูกใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายเท่านั้นลองดูสิ่งที่สร้างสรรค์ใน 5 วิธีที่ บริษัท ต่างๆอาจต้องการพิจารณาใช้ AI)
อันตรายจากการผลิตวิดีโอที่น่าเชื่อถือของ AI แสดงให้เห็นในเซสชั่นเรื่อง“ การแก้ปัญหาด้านมืดของเครื่องขับเคลื่อนสื่อ” เริ่มต้นด้วยวิดีโอที่มีบารัคโอบามากล่าวถึงสิ่งที่อดีตประธานาธิบดีไม่เคยพูดจริง การเคลื่อนไหวยังคงไม่สอดคล้องกับคำพูดเล็กน้อยดังนั้นจึงมีเครื่องหมายของวิดีโอที่แกล้งทำและผู้ชมส่วนใหญ่กล่าวว่าพวกเขาสามารถจำได้ว่ามันเป็นของปลอม
การดัดแปลงวิดีโอของโอบามาไม่ได้ทำให้ความจริงของการฟื้นคืนชีพของ Peter Cushing ในฐานะ Grand Moff Tarkin สำหรับ“ Rogue One” ตามที่บทความในนิวยอร์กไทม์สอธิบายผลสำเร็จก็คือการมีนักแสดงสวมใส่ ในขณะที่อยู่หน้ากล้อง“ เพื่อให้ใบหน้าของเขาสามารถถูกแทนที่ด้วยการสร้างดิจิตอลใหม่ของ Cushing” หัวหน้าเจ้าหน้าที่สร้างสรรค์ภาพยนตร์ / หัวหน้างานวิชวลเอฟเฟ็กต์อาวุโสของภาพยนตร์เรื่องนี้เรียกมันว่า แต่งหน้า."
ปลอมไม่ได้
ตอนนี้ด้วยความก้าวหน้าของ AI โดยเฉพาะเครือข่ายผู้ไม่หวังดี (GANs) ทำให้ง่ายกว่าที่เคยเพื่อให้ได้เอฟเฟกต์มายากลภาพยนตร์ การใช้ประโยชน์จาก GANs ระบบ AI หนึ่งระบบจะกลั่นกรองภาพจนกว่ามันจะดีพอที่จะได้รับการยอมรับในความเป็นจริงโดยระบบ AI ที่ออกแบบมาเพื่อตรวจจับการปลอมแปลง
ไม่มีข้อบกพร่องไม่มีความเครียด - คู่มือแบบเป็นขั้นตอนเพื่อสร้างซอฟต์แวร์ที่เปลี่ยนแปลงชีวิตโดยไม่ทำลายชีวิตของคุณ
คุณไม่สามารถพัฒนาทักษะการเขียนโปรแกรมของคุณเมื่อไม่มีใครใส่ใจคุณภาพของซอฟต์แวร์
ในวิดีโอนี้คุณสามารถเห็นนักวิจัยแสดงให้เห็นว่านักแสดงสามารถควบคุมการเคลื่อนไหวของใบหน้าบุคคลสาธารณะเพื่อสร้างการแสดงออกและการออกเสียงใด ๆ ด้วยระดับความเที่ยงตรงที่มักไม่พบในวิดีโอแพทย์
ในขณะที่ไม่ใช่ทุกคนที่เล่นกับวิดีโอมีระบบที่มีอยู่ในปัจจุบันซอฟต์แวร์จะสามารถเข้าถึงคนจำนวนมากขึ้นในอนาคตอันใกล้นี้
ผลลัพธ์ที่เป็นไปได้
Dhruv Ghulati ผู้ก่อตั้งและซีอีโอของ Factmata กล่าวว่าเขาเป็น“ ความกังวลอย่างมาก” ว่าความสามารถนี้สามารถนำไปใช้กับการวางไม่ใช่แค่ผู้นำโลก 'แต่ผู้นำของโลก' แต่ใบหน้าของซีอีโอ . พลังการทำลายล้างของวิดีโอจะทวีความรุนแรงมากขึ้นโดยการได้รับผลกระทบจากไวรัสจากบอทเน็ต
มันหมายความว่าเรา“ ไม่สามารถวางใจในสายตาที่โกหกของเราได้อีกต่อไป” มร. นาอามานรองศาสตราจารย์ด้านเทคโนโลยีสารสนเทศคอร์เนลล์เทคกล่าว เขากังวลว่าจะนำไปสู่การสูญเสียความไว้วางใจ
คนอื่นมีความกังวลเกี่ยวกับการพัดเปลวไฟแห่งความรุนแรง “ วิดีโอที่ได้รับการดัดแปลงเพียงเล็กน้อย” นั้นถูก“ ใช้เพื่อก่อให้เกิดความรุนแรงในประเทศกำลังพัฒนา” Aviv Ovadya หัวหน้านักเทคโนโลยีหัวหน้าศูนย์ความรับผิดชอบของโซเชียลมีเดียตั้งข้อสังเกต (โซเชียลมีเดียอาจเป็นวิธีที่มีประสิทธิภาพในการกระจายข้อมูลเท็จลองดู 4 แฮ็คฟีดที่ทำลายล้างสูงสุด)
Sarah Hudson, หุ้นส่วน, การลงทุนในสหรัฐอเมริกา, แสดงความกังวลว่ารูปภาพที่ถูก“ บิดเบือน” ก่อให้เกิด“ ภัยคุกคามต่อความปลอดภัยสาธารณะอย่างไม่น่าเชื่อ”
การวางแผนเชิงรุก
มีความจำเป็นที่จะต้อง "ป้องกันการละเมิดให้มากที่สุดเท่าที่จะทำได้" Ovadya กล่าว ด้วยเหตุนี้จึงเป็นสิ่งสำคัญที่จะ "คิดล่วงหน้าในขณะที่พัฒนาเทคโนโลยี" เกี่ยวกับ "วิธีลดผลกระทบที่ไม่ดี" และ "อุทิศทรัพยากรเพื่อจัดการกับผลที่ไม่ได้ตั้งใจ"
เป็นไปไม่ได้ที่จะย้อนเวลากลับไปสู่ความคืบหน้า แต่สิ่งที่เราต้องทำคือตรวจสอบให้แน่ใจว่าทิศทางที่เราคิดและวางแผนออกไป นั่นหมายถึงไม่ใช่แค่ทำงานกับเทคโนโลยีเพื่อดูว่าสามารถทำอะไรได้ แต่ต้องคิดเกี่ยวกับสิ่งที่ควรทำที่ควรหลีกเลี่ยง
หนทางข้างหน้าสำหรับนวัตกรรมเทคโนโลยีคือการคิดผ่านผลกระทบที่อาจเกิดขึ้นและวางแผนเพื่อป้องกันก่อนที่จะเกิดอันตราย ในการทำเช่นนั้นเราจะต้องมีความร่วมมือระหว่างนักวิจัย บริษัท เทคโนโลยีและหน่วยงานของรัฐเพื่อกำหนดมาตรฐานและแนวปฏิบัติที่ดีที่สุดที่ผู้คนจะยึดมั่น นั่นควรจะเป็นลำดับความสำคัญสำหรับทุกคนที่เกี่ยวข้อง