เหตุใดจึงรันการฝึกอบรม ML บนเครื่องท้องถิ่นแล้วเรียกใช้การดำเนินการปกติบนเซิร์ฟเวอร์

ผู้เขียน: Roger Morrison
วันที่สร้าง: 28 กันยายน 2021
วันที่อัปเดต: 21 มิถุนายน 2024
Anonim
"PeekingDuck: A Computer Vision Framework" Webinar (26 Aug, 2021)
วิดีโอ: "PeekingDuck: A Computer Vision Framework" Webinar (26 Aug, 2021)

เนื้อหา

Q:

เหตุใดจึงต้องมีการฝึกอบรมการเรียนรู้ของเครื่อง (ML) ในเครื่องท้องถิ่นจากนั้นเรียกใช้การเรียกใช้งานปกติบนเซิร์ฟเวอร์


A:

คำถามของวิธีการจัดโครงสร้างโครงการเรียนรู้ของเครื่องและขั้นตอนการฝึกอบรมและการทดสอบนั้นเกี่ยวข้องกับวิธีการที่เราดำเนินการผ่านวงจรชีวิตของ ML และนำโปรแกรมจากสภาพแวดล้อมการฝึกอบรมมาสู่สภาพแวดล้อมการผลิต

หนึ่งในเหตุผลที่ง่ายที่สุดในการใช้แบบจำลองด้านบนของการวางการฝึกอบรม ML บนเครื่องท้องถิ่นและจากนั้นย้ายการดำเนินการไปยังระบบที่ใช้เซิร์ฟเวอร์คือประโยชน์ของการแยกหน้าที่ที่สำคัญ โดยทั่วไปคุณต้องการให้ชุดการฝึกอบรมแยกออกจากกันเพื่อให้คุณเห็นภาพที่ชัดเจนว่าการฝึกซ้อมเริ่มต้นและหยุดที่ใดและการทดสอบเริ่มต้นที่ใด บทความ KDNuggets นี้พูดถึงหลักการในทางที่หยาบในขณะที่ยังต้องผ่านเหตุผลอื่น ๆ บางประการในการแยกชุดการฝึกอบรมออกจากเครื่องท้องถิ่น ข้อเสนอพื้นฐานอื่น ๆ สำหรับโมเดลนี้คือด้วยชุดการฝึกอบรมและการทดสอบในสถาปัตยกรรมที่แตกต่างกันมากคุณจะไม่สับสนเกี่ยวกับการจัดสรรรถไฟ / การทดสอบร่วม!

ประโยชน์ที่น่าสนใจอีกประการหนึ่งเกี่ยวกับความปลอดภัยทางไซเบอร์ ผู้เชี่ยวชาญชี้ให้เห็นว่าถ้าคุณมีกระบวนการรถไฟเริ่มต้นในเครื่องท้องถิ่นมันไม่จำเป็นต้องเชื่อมต่อกับอินเทอร์เน็ต! การรักษาความปลอดภัยในวงกว้างนี้จะเป็นการพื้นฐาน "บ่มเพาะ" กระบวนการจนกว่าจะถึงโลกการผลิตซึ่งคุณจะต้องสร้างความปลอดภัยที่เพียงพอลงในรูปแบบเซิร์ฟเวอร์


นอกจากนี้บางโมเดล "โดดเดี่ยว" เหล่านี้อาจช่วยแก้ไขปัญหาเช่นแนวคิดล่องลอยและข้อเสียที่ซ่อนอยู่ - หลักการของ "ไม่มีเหตุผล" เตือนนักพัฒนาว่าข้อมูลไม่ "อยู่เหมือนเดิม" เมื่อเวลาผ่านไป (ขึ้นอยู่กับสิ่งที่ถูกวัด) และ ต้องใช้ความสามารถในการปรับตัวมากมายเพื่อให้ขั้นตอนการทดสอบตรงกับระยะรถไฟ หรือในบางกรณีกระบวนการรถไฟและการทดสอบผสมผสานกันทำให้เกิดความสับสน

การปรับใช้ขั้นตอนการทดสอบบนเซิร์ฟเวอร์เป็นครั้งแรกสามารถอำนวยความสะดวก "กล่องดำ" รุ่นต่างๆที่คุณแก้ไขปัญหาของการปรับตัวข้อมูล ในบางกรณีจะกำจัดขั้นตอนที่ซ้ำซ้อนในการวางคำสั่งเปลี่ยนแปลงไปยังหลายแพลตฟอร์ม

จากนั้นสภาพแวดล้อมของเซิร์ฟเวอร์ให้บริการกระบวนการแบบเรียลไทม์หรือแบบไดนามิกที่วิศวกรต้องการเข้าถึงการถ่ายโอนข้อมูลและรหัสรุ่นที่ทำงานได้ดีที่สุดสำหรับการผลิตใน ML ตัวอย่างเช่น AWS Lambda อาจเป็นตัวเลือกที่น่าสนใจสำหรับการจัดการ microfunctions ของการผลิต (หรือการรวมกันของการจัดเก็บวัตถุแลมบ์ดาและ S3) และไม่มีการเชื่อมต่อ (ไม่มีเซิร์ฟเวอร์) ที่เป็นไปไม่ได้

เหล่านี้คือบางประเด็นที่นักพัฒนาอาจคิดถึงเมื่อพวกเขาพิจารณาวิธีการแบ่งขั้นตอนการฝึกอบรม ML จากการทดสอบและการผลิต