ในยุคที่ปัญญาประดิษฐ์ (AI) ยังคงขับเคลื่อนความก้าวหน้าทางเทคโนโลยีอย่างต่อเนื่อง พร้อมทั้งช่วยเพิ่มประสิทธิภาพ ลดต้นทุน และเพิ่มโอกาสในการสร้างรายได้ให้กับองค์กรต่าง ๆ ทั่วโลก เทคโนโลยีนี้ได้พิสูจน์ตัวเองแล้วว่าเป็นรากฐานสำคัญของภูมิทัศน์ทางธุรกิจในปัจจุบัน อย่างไรก็ตาม ความสำเร็จในการใช้งานและการดำเนินการของระบบ AI นั้นขึ้นอยู่กับโครงสร้างพื้นฐานเป็นอย่างมาก ซึ่งมักเป็นส่วนที่คนเข้าใจน้อยที่สุด แต่กลับเป็นองค์ประกอบที่สำคัญที่สุดในระบบนิเวศของ AI
จากรายงานของ Vanguard โครงสร้างพื้นฐานเป็นหนึ่งในความท้าทายที่ยากที่สุดในการดูแลด้านไอที และเป็นปัจจัยหลักที่พบบ่อยที่สุดที่ทำให้องค์กรต่าง ๆ ต้องยกเลิกโครงการด้าน AI ทั้งนี้ไม่มีแนวทางแก้ไขแบบสำเร็จรูปที่เหมาะกับทุกองค์กร ผู้จัดการฝ่ายไอทีในปัจจุบันต้องเผชิญแรงกดดันมหาศาลในการบริหารจัดการและแก้ไขข้อขัดแย้งต่าง ๆ จากผู้มีส่วนได้ส่วนเสียหลายฝ่าย ในขณะเดียวกัน ความต้องการแอปพลิเคชันสำหรับองค์กรก็ยังคงเพิ่มขึ้นอย่างต่อเนื่อง ตั้งแต่ระบบประมวลผลธุรกรรมออนไลน์แบบดั้งเดิม ไปจนถึงแอปพลิเคชันที่ทำงานแบบคลาวด์เนทีฟ (cloud-native) ทั้งหมดล้วนต้องประมวลผลข้อมูลมากขึ้นและต้องการกำลังประมวลผลของโปรเซสเซอร์ที่สูงขึ้น
ภายใต้สถานการณ์เช่นนี้ ความสำคัญและความเกี่ยวข้องในการนำ AI มาใช้ทั่วทั้งองค์กร จำเป็นต้องอาศัยแนวทางความร่วมมือแบบองค์รวม โดยเฉพาะอย่างยิ่ง ควรมุ่งเน้นไปที่การพิจารณาว่าโครงสร้างพื้นฐานที่มีอยู่นั้นเหมาะสมกับจุดประสงค์การใช้งานหรือไม่ และการอัพเกรดจะให้ผลตอบแทนจากการลงทุนที่คุ้มค่าหรือไม่ การดำเนินการเช่นนี้จะช่วยให้องค์กรหลีกเลี่ยงการใช้ทรัพยากรที่มีอยู่อย่างจำกัดเกินความจำเป็น และสามารถมุ่งเน้นไปที่กลยุทธ์และทิศทางที่ตอบโจทย์กว่า ซึ่งจะช่วยให้สามารถใช้ประโยชน์จากศักยภาพของ AI ได้อย่างเต็มที่
ทำไมจึงต้องถกกันเรื่อง AI
AI ไม่ได้ประกอบด้วยเวิร์คโหลดงานหรือกรณีการใช้งานเท่านั้น แต่ครอบคลุมถึงงานหลากหลายประเภท ตั้งแต่การอนุมานแบบทั่วไป ไปจนถึงการฝึกฝนโมเดล (model training) ที่ต้องใช้ข้อมูลจำนวนมากและมีความซับซ้อน AI ได้กลายเป็นเครื่องมือสำคัญสำหรับองค์กรต่าง ๆ ในหลากหลายอุตสาหกรรม ที่ช่วยขับเคลื่อนนวัตกรรม เพิ่มประสิทธิภาพ และสร้างความได้เปรียบในการแข่งขัน
AI สามารถนำมาใช้ปฏิรูปการดำเนินงานได้ในหลาย ๆ ด้าน รวมถึง:
- เพิ่มประสิทธิภาพการตัดสินใจด้วยการวิเคราะห์ขั้นสูงและข้อมูลเชิงลึก พร้อมทั้งเสริมศักยภาพให้กับบุคลากร ช่วยให้พนักงานสามารถมุ่งเน้นไปที่งานที่มีคุณค่าสูงขึ้น
- ปรับปรุงประสบการณ์ของลูกค้า การตอบสนอง และความแม่นยำ ด้วยระบบ AI ที่มีความสามารถในการตีความ แชทบอท ผู้ช่วยเสมือนจริง และระบบแนะนำที่ปรับให้เข้ากับความต้องการของแต่ละบุคคล
- เปิดโอกาสในการพัฒนาผลิตภัณฑ์และบริการใหม่ ๆ โดยใช้ประโยชน์จากข้อมูลเชิงลึกและอัลกอริทึมขั้นสูง รวมถึงเร่งกระบวนการวิจัยและเวลาในการเข้าถึงข้อมูลเชิงลึกด้วย generative AI
- เสริมสร้างการจัดการความเสี่ยงและการบรรเทาผลกระทบ โดยการวิเคราะห์รูปแบบและความผิดปกติของข้อมูล ควบคู่ไปกับการพัฒนาการตรวจจับการฉ้อโกงและภัยคุกคามทางไซเบอร์ด้วยแมชชีนเลิร์นนิ่ง (ML) ในกรณีการใช้งานต่าง ๆ เช่น เครื่องมือการปรับแต่งให้เข้ากับบุคคลและการปรับราคาให้เหมาะสมที่สุด
การใช้งาน AI ที่หลากหลายด้านนี้ จำเป็นต้องมีการตั้งค่าโครงสร้างพื้นฐานที่แตกต่างกัน ทำให้มีความจำเป็นที่ทีมสถาปัตยกรรมองค์กรต้องใช้แนวทางที่สมดุลและปรับแต่งให้เหมาะสมกับวัตถุประสงค์เฉพาะ
นอกจากนั้น ความต้องการด้านโครงสร้างพื้นฐานสำหรับ AI เริ่มเกินขีดความสามารถขององค์กรในการรองรับโครงการและความสามารถด้าน AI ที่หลากหลาย ซึ่งถูกนำไปใช้ในสภาพแวดล้อมการผลิตจริง กรณีการใช้งาน AI ที่มีเป้าหมายเฉพาะนั้นมีความหลากหลาย และหลายองค์กรกำลังใช้งานโมเดลหลายร้อยโมเดล จากการสำรวจองค์กรที่ใช้ AI ในการผลิตจริงโดย Vanguard พบว่า มีการใช้งานโมเดลเฉลี่ย 125 โมเดล และต้องใช้ข้อมูลมากกว่าหนึ่งเพตาไบต์ในการฝึกฝนโมเดลเหล่านั้น และมีการคาดการณ์ว่าความต้องการในการประมวลผลจะเพิ่มขึ้นอีก ในสภาพแวดล้อมที่การประมวลผลด้าน AI ขยายตัวเช่นนี้ โครงสร้างพื้นฐานกำลังกลายเป็นปัญหาคอขวดที่องค์กรต้องให้ความสำคัญ
โครงสร้างพื้นฐานเป็นปัจจัยสำคัญต่อความสำเร็จในการนำ AI มาใช้
องค์ประกอบสำคัญในการรองรับ AI ประกอบด้วย การประมวลผลประสิทธิภาพสูง การจัดการข้อมูลที่มีประสิทธิภาพ และการเชื่อมต่อเครือข่ายที่เชื่อถือได้ แต่ไม่ใช่ทุกเวิร์คโหลดงาน AI ที่ต้องใช้ทรัพยากรในระดับเดียวกัน บ่อยครั้งที่โปรเซสเซอร์ทั่วไป (CPU) สามารถจัดการเวิร์คโหลดงาน AI ขนาดเล็กได้ ในขณะที่แอปพลิเคชันที่มีความเฉพาะทางมากขึ้น เช่น โมเดลการฝึกฝนขนาดใหญ่ จำเป็นต้องใช้ตัวเร่งความเร็วขั้นสูง (เช่น GPU)
ดังนั้นขั้นแรกผู้นำด้านไอทีควรพิจารณาประเด็นต่อไปนี้ก่อนเริ่มวางแผนและสร้างโครงสร้างพื้นฐานที่พร้อมรองรับด้าน AI:
- ประเมินความต้องการเฉพาะด้าน AI: ทีมสถาปัตยกรรมขององค์กรควรประเมินกรณีความต้องการการใช้งาน AI ที่เฉพาะเจาะจงขององค์กร
- สร้างความสมดุลระหว่าง CPU และ GPU: สร้างอีโคซิสเต็มที่สมดุลระหว่าง CPU และ GPU ที่ออกแบบมาเพื่อให้เข้ากับโครงสร้างพื้นฐานที่เหมาะสมกับเวิร์คโหลดงาน
- ให้ความสำคัญกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล: ทีมโครงสร้างพื้นฐานและดำเนินงาน (I&O) ควรพิจารณาการนำ “private AI” มาใช้ เพื่อใช้รันงาน AI ภายในองค์กรเพื่อช่วยปกป้องข้อมูลที่มีความละเอียดอ่อนต่อองค์กร
ในขณะที่เวิร์คโหลดงาน AI เพิ่มขึ้นอย่างต่อเนื่อง ธุรกิจต่าง ๆ จำเป็นต้องเน้นย้ำถึงความสำคัญของกลยุทธ์โครงสร้างพื้นฐานที่คุ้มค่า ดาต้าเซ็นเตอร์ที่ประมวลผลเวิร์คโหลดงาน AI ต้องใช้พลังงานจำนวนมาก ทีมสถาปัตยกรรมองค์กรควรเลือกโปรเซสเซอร์ที่ประหยัดพลังงาน ลงทุนในโซลูชันระบบทำความเย็น และนำแนวปฏิบัติด้านความยั่งยืนมาใช้เพื่อช่วยจัดการต้นทุนการดำเนินงาน
โครงสร้างพื้นฐานด้าน AI ที่แข็งแกร่งต้องมีความสามารถในการมองเห็นทรัพยากรด้านการประมวลผล การจัดเก็บข้อมูล และเครือข่าย ทีม I&O ควรติดตั้งเครื่องมือสังเกตการณ์ในดาต้าเซ็นเตอร์ เพื่อช่วยให้ธุรกิจเข้าใจรูปแบบการใช้งานและช่วยให้มั่นใจว่าโครงสร้างพื้นฐานสามารถขยายตัวได้ตามความต้องการด้าน AI ที่เพิ่มขึ้น
รากฐานสำคัญของโครงสร้างพื้นฐานที่พร้อมร้องรับ AI
องค์กรต่าง ๆ ควรใช้แนวทางที่เป็นรูปธรรมในการสร้างสภาพแวดล้อมด้านโครงสร้างพื้นฐานที่เหมาะสมกับความต้องการที่เปลี่ยนแปลงของเวิร์คโหลดงาน AI โดยพิจารณาผ่านกรอบการทำงานหลักสามส่วนต่อไปนี้ ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพและประสิทธิผลของดาต้าเซ็นเตอร์ โดยไม่จำเป็นต้องมีโครงสร้างพื้นฐานใหม่จำนวนมาก:
- ทันสมัย: เปลี่ยนเซิร์ฟเวอร์รุ่นเก่าเป็นระบบที่ใหม่กว่าและมีประสิทธิภาพมากขึ้น เพื่อประหยัดพื้นที่และพลังงานให้ได้มากที่สุด เช่น สถาปัตยกรรมคอร์ “Zen 5” รุ่นใหม่ ให้ประสิทธิภาพการประมวลผลคำสั่งต่อรอบ (IPC) ดีขึ้นถึง 17% สำหรับงานระดับองค์กรและคลาวด์ และสูงขึ้นถึง 37% สำหรับงานด้าน AI และการประมวลผลประสิทธิภาพสูง (HPC) เมื่อเทียบกับ “Zen 4”
- ใช้กลยุทธ์ไฮบริดคลาวด์: สำหรับเวิร์คโหลดงานที่มีความเข้มข้นและขนาดที่แตกต่างกัน สภาพแวดล้อมในรูปแบบเสมือนและคอนเทนเนอร์จะให้โซลูชันที่มีความยืดหยุ่น การใช้ประโยชน์จากกลยุทธ์ทั้งแบบไพรเวทและไฮบริดคลาวด์จะช่วยให้องค์กรสามารถปรับขนาดแอปพลิเคชัน AI ได้โดยไม่ต้องจัดสรรทรัพยากรที่ไม่จำเป็น
- ลงทุนอย่างสมดุลในทรัพยากรตัวเร่งความเร็ว: องค์กรต่าง ๆ ควรปรับขนาดการลงทุนในโคโปรเซสเซอร์ (GPU) ให้เหมาะสมกับความต้องการของเวิร์คโหลดงานเฉพาะ การจับคู่ตัวเร่งความเร็วกับ CPU ที่มีประสิทธิภาพจะช่วยให้มั่นใจได้ว่าจะได้ประสิทธิภาพสูงสุดโดยไม่สิ้นเปลืองงบประมาณ
สิ่งเหล่านี้ยิ่งตอกย้ำความสำคัญในการเลือก CPU และ GPU ที่เหมาะสมเพื่อรองรับเวิร์คโหลดงานด้าน AI โดยหากใช้ SPECrate 2017_int_base เป็นเกณฑ์มาตรฐานในการวัดประสิทธิภาพการประมวลผลทั่วไป บริษัทที่เลือกใช้โปรเซสเซอร์ 5th Gen EPYC และตัวเร่งความเร็ว Instinct รุ่นล่าสุดจาก AMD เพื่อพัฒนาดาต้าเซ็นเตอร์ให้ทันสมัย จะสามารถใช้พลังงานน้อยลงประมาณ 71% และใช้เครื่องเซิร์ฟเวอร์น้อยลงประมาณ 87% เมื่อเทียบกับการใช้โปรเซสเซอร์รุ่นเก่าจากคู่แข่ง สิ่งเหล่านี้จะช่วยให้ความยืดหยุ่นกับ CIOs ในการใช้ประโยชน์จากการประหยัดพื้นที่และพลังงาน หรือเพิ่มประสิทธิภาพให้กับงานประจำวันด้านไอที พร้อมด้วยประสิทธิภาพด้าน AI ที่น่าประทับใจ
ท้ายที่สุดแล้ว CIOs จะต้องขอให้ทีมของพวกเขาใช้แนวทางที่เป็นรูปธรรม ซึ่งต้องยอมรับว่า AI ไม่ใช่หน่วยเดียว เวิร์คโหลดงานและกรณีการใช้งานด้าน AI มีความหลากหลายอย่างมาก: ทั้งการทำงานแบบสแตนด์อโลน (ทั้งขนาดใหญ่และเล็ก) กรณีการใช้งาน และฟังก์ชันภายในเวิร์คโหลดงานต่าง ๆ
วิธีที่ดีที่สุดในการจัดการเวิร์คโหลดงาน AI อย่างมีประสิทธิภาพคือการใช้แนวทางที่เหมาะสมกับวัตถุประสงค์ผ่านขุมพลังโปรเซสเซอร์และตัวเร่งความเร็ว โดยการเลือกขึ้นอยู่กับความต้องการเฉพาะของงาน ซึ่งเส้นทางสู่ความพร้อมด้าน AI ต้องอาศัยการวางแผนที่รอบคอบและการลงทุนเชิงกลยุทธ์ องค์กรด้านไอทีสามารถตัดสินใจเกี่ยวกับโครงสร้างพื้นฐาน AI ได้อย่างมีข้อมูลด้วยการให้ความรู้แก่ตนเองและผู้มีส่วนได้ส่วนเสียกับองค์กร ซึ่งจะช่วยให้สามารถเลือกเทคโนโลยีที่ผสมผสานกันอย่างเหมาะสมเพื่อตอบสนองความต้องการเฉพาะของเวิร์คโหลดงานด้าน AI