ทำไมคอมพิวเตอร์ควอนตัมอาจเป็นจุดต่อไปของ Big Data Highway

ผู้เขียน: Judy Howell
วันที่สร้าง: 27 กรกฎาคม 2021
วันที่อัปเดต: 11 พฤษภาคม 2024
Anonim
Quantum Computers Explained – Limits of Human Technology
วิดีโอ: Quantum Computers Explained – Limits of Human Technology

เนื้อหา


ที่มา: Krishnacreations / Dreamstime.com

Takeaway:

เทคโนโลยีคอมพิวเตอร์มีความก้าวหน้าไปในเส้นทางเดียวกันมานานหลายทศวรรษ แต่การคำนวณควอนตัมเป็นการเดินทางครั้งใหญ่จากสิ่งที่เกิดขึ้นก่อนหน้านี้

เมื่อวันที่ 28 กันยายน 2012 หนังสือพิมพ์นิวยอร์กไทม์สเล่าเรื่องราว“ ชาวออสเตรเลียหลั่งไหลเข้ามาหาคอมพิวเตอร์ระดับใหม่” เกี่ยวกับสิ่งที่ดูเหมือนจะเป็นความก้าวหน้าในการแข่งขันเพื่อสร้างคอมพิวเตอร์ควอนตัมที่ใช้งานได้

ในขณะที่คำจำกัดความของคอมพิวเตอร์ควอนตัมจะหมายถึงผู้อ่านจำนวนมากพอเพียงเพื่อบอกว่าคอมพิวเตอร์ควอนตัมที่ใช้งานได้จะเป็นการปฏิวัติในโลกของเทคโนโลยี

เทคโนโลยีคอมพิวเตอร์รองรับการเปลี่ยนแปลงในโลกที่เรามีประสบการณ์ในช่วง 50 ปีที่ผ่านมา - เศรษฐกิจโลก, อินเทอร์เน็ต, การถ่ายภาพดิจิตอล, หุ่นยนต์, สมาร์ทโฟนและอีคอมเมิร์ซทั้งหมดพึ่งพาคอมพิวเตอร์ ฉันเชื่อว่าเป็นสิ่งสำคัญสำหรับเราที่จะมีความเข้าใจพื้นฐานเกี่ยวกับเทคโนโลยีเพื่อทำความเข้าใจว่าการคำนวณควอนตัมอาจนำเราไป

ในการเริ่มต้นมี ENIAC

ดังนั้นให้เริ่มที่จุดเริ่มต้น คอมพิวเตอร์อิเล็กทรอนิกส์เครื่องแรกที่ทำงานคือ Electronic Numerical Integrator และ Computer หรือที่รู้จักกันทั่วไปว่า ENIAC ได้รับการพัฒนาที่ Moore School of Engineering ของมหาวิทยาลัยเพนซิลวาเนียภายใต้การระดมทุนโดยกองทัพสหรัฐฯเพื่อคำนวณวิถีกระสุนปืนในสงครามโลกครั้งที่สอง (นอกเหนือจากการเป็นวิศวกรรมที่ยอดเยี่ยมแล้ว ENIAC ยังสร้างความประทับใจให้กับโครงการด้านไอทีที่สำคัญหลายโครงการในช่วงหลายปีที่ผ่านมา แต่มันก็สายเกินไปสำหรับสงครามโลกครั้งที่สองซึ่งสิ้นสุดลงก่อนที่คอมพิวเตอร์จะเสร็จสมบูรณ์)


หัวใจสำคัญของความสามารถในการประมวลผลของ ENIAC คือหลอดสุญญากาศ - 17,468 แห่ง เนื่องจากหลอดสุญญากาศมีเพียงสองสถานะคือ off และ on (หรือเรียกอีกอย่างว่า 0/1) - คอมพิวเตอร์ใช้เลขคณิตแบบเลขฐานสองแทนที่จะเป็นเลขฐานสิบแบบทศนิยมโดยที่ค่าเริ่มต้นจาก 0 ถึง 9 แต่ละการแทนบุคคลเหล่านี้เรียกว่า ย่อมาจาก "เลขฐานสอง" (หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับประวัติความเป็นมาของ ENIAC ให้ดู The Women of ENIAC: Programming Pioneers)

เห็นได้ชัดว่ามีความจำเป็นที่จะต้องมีวิธีการแสดงตัวเลขตัวอักษรและสัญลักษณ์ที่เราคุ้นเคยดังนั้นรูปแบบการเข้ารหัสที่เสนอโดย American National Standards Institute (ANSI) หรือที่รู้จักในชื่อ American Character Information Interchange (ASCII) ในที่สุดก็กลายเป็นมาตรฐาน ภายใต้ ASCII เรารวม 8 บิตเพื่อจัดรูปแบบอักขระหนึ่งตัวหรือหนึ่งไบต์ภายใต้สคีมาที่กำหนดไว้ล่วงหน้า มีชุดค่าผสม 256 ชุดที่แสดงตัวเลขตัวอักษรตัวพิมพ์ใหญ่ตัวอักษรตัวพิมพ์เล็กและอักขระพิเศษ

สับสน? ไม่ต้องกังวลเกี่ยวกับมัน - ผู้ใช้คอมพิวเตอร์โดยเฉลี่ยไม่จำเป็นต้องทราบรายละเอียด มันถูกแสดงที่นี่เป็น Building Block เท่านั้น


จากนั้นคอมพิวเตอร์จะก้าวหน้าอย่างรวดเร็วจากหลอดสุญญากาศถึงทรานซิสเตอร์ (William Shockley และทีม Bell Labs ของเขาได้รับรางวัลโนเบลสำหรับการพัฒนาทรานซิสเตอร์) จากนั้นความสามารถในการใส่ทรานซิสเตอร์หลายตัวลงบนชิปตัวเดียวเพื่อสร้างวงจรรวม ไม่นานก่อนที่วงจรเหล่านี้จะรวมทรานซิสเตอร์หลายพันหรือหลายล้านตัวในชิปตัวเดียวซึ่งเรียกว่าการรวมขนาดใหญ่มาก หมวดหมู่เหล่านี้: 1) หลอดสุญญากาศ 2) ทรานซิสเตอร์ 3) ไอซีและ 4) VLSI ถือเป็นรุ่นที่สี่ของการพัฒนาฮาร์ดแวร์ไม่ว่าทรานซิสเตอร์จะติดขัดจำนวนเท่าใดบนชิป

ไม่มีข้อบกพร่องไม่มีความเครียด - คู่มือแบบเป็นขั้นตอนเพื่อสร้างซอฟต์แวร์ที่เปลี่ยนแปลงชีวิตโดยไม่ทำลายชีวิตของคุณ

คุณไม่สามารถพัฒนาทักษะการเขียนโปรแกรมของคุณเมื่อไม่มีใครใส่ใจคุณภาพของซอฟต์แวร์

ในช่วงเวลาตั้งแต่ ENIAC "ไปสด" ในปี 1946 และตลอดรุ่นเหล่านี้การใช้งานพื้นฐานของเลขคณิตไบนารีตามหลอดสุญญากาศยังคงอยู่ในสถานที่ คอมพิวเตอร์ควอนตัมแสดงให้เห็นถึงการแตกหักที่รุนแรงจากวิธีการนี้

Quantum Computing: การหยุดครั้งใหญ่

คอมพิวเตอร์ควอนตัมควบคุมพลังของอะตอมและโมเลกุลในการประมวลผลและทำงานของหน่วยความจำด้วยความเร็วที่เร็วกว่าคอมพิวเตอร์ที่ใช้ซิลิกอน ... อย่างน้อยในทางทฤษฎี แม้ว่าจะมีคอมพิวเตอร์ควอนตัมพื้นฐานบางอย่างที่สามารถทำการคำนวณที่เฉพาะเจาะจงได้ แต่แบบจำลองที่ใช้งานได้นั้นยังอยู่ห่างออกไปหลายปี แต่ถ้าเกิดขึ้นก็สามารถเปลี่ยนพลังการประมวลผลของคอมพิวเตอร์ได้อย่างมาก

จากผลของพลังงานนี้การคำนวณควอนตัมมีอำนาจในการปรับปรุงการประมวลผลข้อมูลขนาดใหญ่อย่างมากเพราะอย่างน้อยในทางทฤษฎีมันควรจะเก่งในการประมวลผลแบบขนานอย่างหนาแน่นของข้อมูลที่ไม่มีโครงสร้าง

คอมพิวเตอร์ยังคงดำเนินต่อไปด้วยการประมวลผลแบบไบนารีด้วยเหตุผลหนึ่งข้อ: ไม่มีเหตุผลใดที่คนจรจัดจะทำสิ่งที่ได้ผล ท้ายที่สุดแล้วความเร็วในการประมวลผลของคอมพิวเตอร์เพิ่มขึ้นเป็นสองเท่าทุก ๆ 18 เดือนถึงสองปี ในปี 1965 กอร์ดอนมัวร์รองประธาน Intel ได้เขียนบทความที่อธิบายถึงสิ่งที่เรียกว่ากฎหมายของมัวร์ซึ่งเขากล่าวว่าความหนาแน่นของโปรเซสเซอร์จะเพิ่มขึ้นเป็นสองเท่าทุกสองปีทำให้ความเร็วในการประมวลผลเพิ่มขึ้นเป็นสองเท่า แม้ว่าเขาจะเขียนว่าเขาทำนายแนวโน้มนี้เป็นเวลา 10 ปี แต่ก็ยังคงดำเนินต่อไปจนถึงปัจจุบัน (มีผู้บุกเบิกการใช้คอมพิวเตอร์สองสามคนที่หักฐานข้อมูลไบนารีเรียนรู้เพิ่มเติมในทำไมไม่ใช้คอมพิวเตอร์ประกอบไปด้วย)

แต่ความเร็วในการประมวลผลที่เพิ่มขึ้นนั้นยังห่างไกลจากปัจจัยเดียวในการปรับปรุงประสิทธิภาพของคอมพิวเตอร์ การปรับปรุงเทคโนโลยีการจัดเก็บข้อมูลและการสื่อสารโทรคมนาคมมีความสำคัญเกือบเท่ากัน ในช่วงแรก ๆ ของคอมพิวเตอร์ส่วนบุคคลฟล็อปปี้ดิสเก็ตต์มีตัวอักษร 140,000 ตัวและฮาร์ดดิสก์ตัวแรกที่ฉันซื้อมีตัวอักษร 10 ล้านตัว (มันมีค่าใช้จ่ายฉัน $ 5,500 และใหญ่เท่ากับคอมพิวเตอร์เดสก์ท็อป) โชคดีที่การจัดเก็บมีขนาดใหญ่ขึ้นมากขนาดเล็กลงเร็วกว่าในการถ่ายโอนข้อมูลและถูกกว่ามาก

ความสามารถที่เพิ่มขึ้นอย่างมากช่วยให้เราสามารถรวบรวมข้อมูลในพื้นที่ที่ก่อนหน้านี้เราสามารถขีดข่วนพื้นผิวของหรือไม่แม้แต่เจาะลึกเลย ซึ่งรวมถึงหัวข้อที่มีข้อมูลจำนวนมากเช่นสภาพอากาศพันธุศาสตร์ภาษาศาสตร์การจำลองทางวิทยาศาสตร์และการวิจัยด้านสุขภาพเป็นต้น

ทำให้ความรู้สึกของข้อมูลขนาดใหญ่

ยิ่งการหาช่องโหว่ของข้อมูลขนาดใหญ่พบว่าแม้ว่าเราจะได้รับพลังการประมวลผลที่ได้รับทั้งหมด แต่ก็ไม่เพียงพอ หากเราจะสามารถเข้าใจข้อมูลจำนวนมหาศาลที่เรากำลังรวบรวมเราจะต้องมีวิธีการใหม่ในการวิเคราะห์และนำเสนอเช่นเดียวกับคอมพิวเตอร์ที่เร็วกว่าเพื่อประมวลผล คอมพิวเตอร์ควอนตัมอาจไม่พร้อมสำหรับการดำเนินการ แต่ผู้เชี่ยวชาญได้เฝ้าดูความก้าวหน้าทุกอย่างของพวกเขาในฐานะพลังการประมวลผลคอมพิวเตอร์ในระดับต่อไป เราไม่สามารถพูดได้อย่างแน่นอน แต่การเปลี่ยนแปลงครั้งใหญ่ครั้งต่อไปของเทคโนโลยีคอมพิวเตอร์อาจเป็นการออกเดินทางจากชิปซิลิกอนที่นำพาเรามาตลอด