29 พ.ค. 2567 190 0

Red Hat OpenShift AI ยกระดับความยืดหยุ่นในการใช้งานร่วมกับ Predictive และ Generative AI บน Hybrid Cloud

Red Hat OpenShift AI ยกระดับความยืดหยุ่นในการใช้งานร่วมกับ Predictive และ Generative AI บน Hybrid Cloud

Red Hat OpenShift AI นำเสนอทางเลือกและการใช้งานอย่างเจาะจง เพื่อช่วยองค์กรต่าง ๆ จับคู่เวิร์กโหลดอัจฉริยะที่กำลังเติบโตอย่างรวดเร็ว ใช้งานได้ทั้งดาต้าเซ็นเตอร์ภายในองค์กรไปจนถึงมัลติพับลิคคลาวด์ที่ edge 

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก ประกาศความล้ำหน้าของ Red Hat OpenShift AI แพลตฟอร์มปัญญาประดิษฐ์ (AI) และแมชชีนเลิร์นนิ่ง (ML) แบบโอเพ่นไฮบริดที่อยู่บน Red Hat OpenShift ซึ่งช่วยให้องค์กรสร้างและให้บริการแอปพลิเคชัน AI ได้เพียงพอต่อการใช้งานบนไฮบริดคลาวด์ทุกระบบ การอัปเดตครั้งนี้ย้ำวิสัยทัศน์ด้าน AI ของเร้ดแฮท และนำความมุ่งมั่นของเร้ดแฮทไปช่วยให้ลูกค้าได้เข้าสู่โลกของเวิร์กโหลดอัจฉริยะ ตั้งแต่ฮาร์ดแวร์พื้นฐาน ไปจนถึงบริการและเครื่องมือต่าง ๆ เช่น Jupyter และ PyTorch ที่สร้างบนแพลตฟอร์มนี้ ช่วยให้สร้างนวัตกรรมได้เร็วขึ้น เพิ่มผลผลิต และสามารถนำ AI มาใช้ในการดำเนินธุรกิจประจำวัน ผ่านแพลตฟอร์มโอเพ่นซอร์สที่ยืดหยุ่นที่ปรับและสเกลได้ ซึ่งช่วยให้ได้ใช้ทั้งโมเดลการคาดการณ์ (predictive model) และโมเดลการสร้างสรรค์ (generative model) โดยจะใช้หรือไม่ใช้คลาวด์ก็ได้

ลูกค้าต้องเผชิญความท้าทายหลายประการ เมื่อจะนำโมเดล AI ที่ทดลองไปใช้งานจริง เช่น ค่าใช้จ่ายด้านฮาร์ดแวร์ที่เพิ่มขึ้น ความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูล และขาดความมั่นใจที่จะแชร์ข้อมูลของตนกับโมเดลที่เป็น SaaS การที่ Generative AI (GenAI) พัฒนาและเปลี่ยนแปลงอย่างรวดเร็ว ทำให้องค์กรจำนวนมากต้องการสร้าง core AI platform ที่เชื่อถือได้และสามารถรันได้ทั้งบนระบบที่อยู่ในองค์กร (on-preimse) หรือบนคลาวด์

ข้อมูลจาก IDC1 ระบุว่า การจะใช้ประโยชน์จาก AI ให้ประสบความสำเร็จได้นั้น องค์กรต่าง ๆ ต้องปรับแอปพลิเคชันจำนวนมากที่มีอยู่ รวมถึงสภาพแวดล้อมของข้อมูลให้ทันสมัย ต้องขจัดอุปสรรคระหว่างระบบที่ใช้อยู่และแพลตฟอร์มด้านการจัดเก็บข้อมูล ควรเพิ่มความยั่งยืนให้กับโครงสร้างพื้นฐานไอที และต้องมีความระมัดระวังในการเลือกว่าจะวางเวิร์กโหลดแต่ละประเภทไว้ ณ ที่ใด เช่น วางไว้บนคลาวด์ ในดาต้าเซ็นเตอร์ หรือที่เอดจ์ (edge) จากประเด็นดังกล่าวนี้ แสดงให้เห็นว่าแพลตฟอร์ม AI ทั้งหลายจะต้องมีความยืดหยุ่นเพื่อสนับสนุนองค์กรที่กำลังจะนำ AI มาใช้ รวมถึงสนับสนุนความต้องการและทรัพยากรต่าง ๆ ได้อย่างเหมาะสม 

กลยุทธ์ AI ของเร้ดแฮทช่วยให้เกิดความยืดหยุ่นในการใช้ไฮบริดคลาวด์ มอบความสามารถในการเพิ่มประสิทธิภาพโมเดลพื้นฐานที่ได้รับการเตรียมหรือเทรนด์ล่วงหน้า (pre-trained) ด้วยข้อมูลของลูกค้า และให้อิสระในการใช้ตัวเร่ง (accelerators) ฮาร์ดแวร์และซอฟต์แวร์ที่หลากหลาย Red Hat OpenShift AI มีฟีเจอร์และประสิทธิภาพใหม่ ๆ ที่ตอบความต้องการเหล่านี้ผ่านการใช้นวัตกรรม AI/ML ล่าสุด และได้รับการสนับสนุนจากพันธมิตรที่เน้นเรื่อง AI อย่างกว้างขวาง แพลตฟอร์มเวอร์ชันล่าสุด คือ Red Hat Openshift AI 2.9 ประกอบด้วย

  • Model serving at the edge โมเดลที่พร้อมใช้งานจริงได้ทันทีที่ edge นี้ เป็นการขยายการใช้โมเดล AI ไปยังสถานที่ห่างไกลโดยการใช้ single-node OpenShift เพื่อมอบความสามารถในการอนุมานในสภาพแวดล้อมที่มีทรัพยากรจำกัดด้วยการเข้าใช้เน็ตเวิร์กเป็นช่วง ๆ หรือ air-gapped network  ฟีเจอร์ที่เป็น technology preview นี้ ช่วยให้องค์กรดำเนินงานได้อย่างสม่ำเสมอและปรับขนาดได้ ใช้ได้ตั้งแต่ core ไปยัง cloud ไปยัง edge รวมถึงความสามารถในการสังเกตติดตามที่พร้อมใช้งานเต็มรูปแบบโดยไม่ต้องปรับจูนเพิ่มเติม (out-of-the-box observability)
  • Enhanced model serving: model serving มีการเพิ่มประสิทธิภาพด้วยความสามารถในการใช้ model server หลายตัว ทั้ง predictive และ GenAI, ทั้งยังรองรับ KServe ซึ่งเป็น Kubernetes custom resource definition ที่ผสานการให้บริการโมเดลทุกประเภทเข้าด้วยกัน, รองรับ vLLM และ text generation inference server (TGIS), ให้บริการเอนจินสำหรับ LLMs และ Caikit-nlp-tgis runtime ซึ่งใช้บริหารจัดการโมเดลและงานประมวลผลภาษาธรรมชาติ (NLP) ต่าง ๆ ประสิทธิภาพของ model serving ที่เพิ่มขึ้นนี้ ช่วยให้ผู้ใช้รัน predictive และ GenAI บนแพลตฟอร์มเพียงหนึ่งเดียวเพื่อการใช้งานได้หลายกรณี ช่วยลดค่าใช้จ่าย และทำงานง่ายขึ้น เป็น model serving ที่พร้อมใช้สำหรับ LLMs และช่วยลดความซับซ้อนที่เกี่ยวข้องกับเวิร์กโฟลว์ให้กับผู้ใช้งาน
  • Distributed workloads with Ray โดยใช้ CodeFlare และ KubeRay ซึ่งใช้ cluster nodes หลายตัวเพื่อให้ประมวลผลและเทรนด์โมเดลได้เร็วขึ้น Ray คือเฟรมเวิร์กที่ช่วยให้การทำงานของ AI workloads ง่ายขึ้น ส่วน KubeRay ช่วยจัดการเวิร์กโหลดเหล่านั้นบน Kubernetes ทั้งนี้ CodeFlare เป็นศูนย์กลางที่รวมความสามารถด้าน distributed workloads ของ Red Hat OpenShift AI โดยให้บริการเฟรมเวิร์กที่ใช้งานง่ายและช่วยลดความซับซ้อนในการผสานการทำงานและการมอนิเตอร์ ความสามารถในการจัดคิวและการบริหารแบบรวมศูนย์นี้ ช่วยให้ใช้โหนดต่าง ๆ ได้อย่างเหมาะสม และช่วยจัดสรรทรัพยากรต่าง ๆ เช่น จัดสรร GPUs ได้ตรงความต้องการของผู้ใช้และเวิร์กโหลด
  • Improved model development: ปรับปรุงการพัฒนาโมเดลผ่าน project workspaces และเพิ่ม workbench images ซึ่งช่วยมอบความยืดหยุ่นในการใช้ IDEs และชุดเครื่องมือต่าง ๆ ให้นักวิทยาศาสตร์ข้อมูล เช่น VS Code และ RStudio ปัจจุบันมีให้บริการในรูปแบบ technology preview และเพิ่มประสิทธิภาพ CUDA เพื่อกรณีใช้งานและประเภทโมเดลที่หลากหลาย
  • Model monitoring visualizations: แสดงภาพการมอนิเตอร์โมเดล เพื่อให้ได้ทราบถึงประสิทธิภาพและตัวชี้วัดการทำงาน ปรับปรุงความสามารถในการติดตามสังเกตสมรรถนะการทำงานของโมเดล AI
  • New accelerator profiles ช่วยให้ผู้ดูแลระบบตั้งค่าฮาร์ดแวร์แต่ละประเภทที่พร้อมสำหรับการพัฒนาโมเดลและ model-serving workflows โดยให้ผู้ใช้เข้าถึงประเภท accelerator ที่เหมาะกับเวิร์กโหลดที่เจาะจงได้ด้วยตนเองและไม่ยุ่งยาก

นอกจาก Red Hat OpenShift AI ที่สนับสนุน watsonx.ai ของ IBM แล้ว องค์กรที่อยู่ในอุตสาหกรรมทุกประเภทสามารถติดอาวุธตัวเองด้วย Red Hat OpenShift AI เพื่อขับเคลื่อนนวัตกรรมและการเติบโตด้าน AI ได้มากขึ้น ตัวอย่างองค์กร เช่น  AGESIC และ Ortec Finance

คลาวด์ที่ใช่คือไฮบริด - AI ก็เช่นกัน

เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ เร้ดแฮทเป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่นไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของเร้ดแฮทยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย

คำกล่าวสนับสนุน

Ashesh Badani, chief product officer and senior vice president, Red Hat

"การใช้ AI ในองค์กร ไม่ใช่ 'ถ้าจะใช้' อีกต่อไป แต่เป็น 'จะใช้เมื่อไร' องค์กรล้วนต้องการแพลตฟอร์ม AI ที่เสถียร ยืดหยุ่น และเชื่อถือได้มากขึ้น และต้องเป็นแพลตฟอร์มที่สามารถเพิ่มผลผลิต เพิ่มรายได้ และก่อให้เกิดความแตกต่าง Red Hat OpenShift AI คือคำตอบของเร้ดแฮทที่ตอบสนองความต้องการเหล่านี้ได้ในวงกว้าง ช่วยให้ผู้นำด้านไอทีใช้แอปพลิเคชันที่ชาญฉลาดได้ทุกที่บนไฮบริดคลาวด์ พร้อมกับขยายและปรับการทำงานและโมเดลตามความจำเป็นให้เพียงพอที่จะรองรับสิ่งที่เกิดขึ้นจริงจากการใช้แอปพลิเคชันและการให้บริการต่าง ๆ" 

Thomas Taroni, CEO, Phoenix Technologies

"วิสัยทัศน์ด้าน AI ของเร้ดแฮท สอดคล้องกับเป้าหมายของเราในการจัดหาโซลูชัน AI ที่ชื่อถือได้และมีประสิทธิภาพสูงให้กับองค์กร Red Hat OpenShift AI ช่วยให้ลูกค้าที่ใช้ kvant AI ของเราได้ประโยชน์จากความยืดหยุ่น การปรับขนาดการทำงาน และความปลอดภัยที่ไม่มีใครเหมือน การผสานรวม kvant AI เข้ากับ Red Hat OpenShift AI ช่วยให้องค์กรต่าง ๆ มีความพร้อมเต็มที่ที่จะบูรณาการ predictive model และ generative model ได้อย่างไม่ยุ่งยาก ช่วยให้ทุกคนสร้างแอปพลิเคชัน AI ได้อย่างมั่นใจและคล่องตัว"

Jeff Fonke, Sr. Practice Manager AI & Data, World Wide Technology

"การที่โมเดลไอทีแบบดั้งเดิมต้องรับมือกับความซับซ้อนของ AI อย่างมาก ทำให้ WWT มุ่งมั่นที่จะช่วยลูกค้าของเราที่ต้องการนำ AI ไปใช้ ให้ตัดสินใจเลือกใช้เทคโนโลยีที่ถูกต้องได้เร็วขึ้น AI Proving Ground ของ WWT เป็นสิ่งพิสูจน์ความมุ่งมั่นนี้ AI Proving Ground ใช้ Red Hat OpenShift AI เป็นแพลตฟอร์มฐาน ซึ่งช่วยให้ลูกค้าทดสอบ เทรนด์ ตรวจสอบ และใช้โซลูชัน AI ที่ปลอดภัยและให้มูลค่าทางธุรกิจในการทำงานจริง"

Joris Cramwinckel, Technologist, Ortec Finance

"ในช่วงสองปีที่ผ่านมา เร้ดแฮทช่วยให้เราประสบความสำเร็จในการให้บริการโมเดลแมชชีนเลิร์นนิ่งเพื่อการประเมินมูลค่าที่อยู่อาศัยบน Azure Red Hat OpenShift และเราตื่นเต้นที่จะได้ใช้ Red Hat OpenShift AI ทดแทนงานด้านการบำรุงรักษา และโค้ดที่มีลิขสิทธิ์ สำหรับ AI model serving ในแอปพลิเคชันของเรา การผสานรวมประสิทธิภาพของ OpenShift AI และ Azure Red Hat OpenShift จะช่วยให้ทีมวิจัยและพัฒนาของเราช่วยลูกค้าเปลี่ยนผ่านไปใช้โซลูชันที่ใช้ AI ได้เร็วขึ้น ช่วยให้เราจัดการความเสี่ยงและเพิ่มประสิทธิภาพการลงทุนด้านต่าง ๆ ได้อย่างมีประสิทธิภาพมากขึัน"

ข้อมูลเพิ่มเติม

ข้อมูลเพิ่มเติมเกี่ยวกับ AI at Red Hat

ข้อมูลเพิ่มเติมเกี่ยวกับ Red Hat OpenShift AI

ข้อมูลเพิ่มเติมเกี่ยวกับ ความสามารถใหม่ ๆ บน Red Hat OpenShift AI

ข้อมูลเพิ่มเติมเกี่ยวกับ ระบบนิเวศพันธมิตร ISV และ GSI

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ AI Sweden

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ Elastic

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ Run:ai

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ Stability AI

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ NVIDIA

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ Intel

ข้อมูลเพิ่มเติมการเป็นพันธมิตรกับ AMD

ช่องทางติดต่อเร้ดแฮท

ข้อมูลเพิ่มเติมเกี่ยวกับ Red Hat

ข่าวประชาสัมพันธ์ของเร้ดแฮท Red Hat newsroom

Red Hat blog

Red Hat on X/Twitter

Red Hat on Instagram

Red Hat videos on YouTube

Red Hat on LinkedIn