Cloud

Cloud

ข่าวและบทความที่เกี่ยวข้อง

All Cloud

PostType Filter En

บทความ

มารู้จักกับคลังข้อมูล (Data Warehouse) แหล่งข้อมูลในการทำ Business Intelligence
โดยปกติฐานข้อมูลจะถูกแบ่งเป็นแบบสัมพันธ์ (SQL) หรือ NoSQL และแบบธุรกรรม (OLTP) แบบเชิงวิเคราะห์ (OLAP) หรือแบบผสม (HTAP) ซึ่งถ้าเทียบกับเมื่อก่อนแล้วนั้นฐานข้อมูลของแผนกและฐานข้อมูลที่ทำขึ้นเพื่อจุดประสงค์พิเศษมีการปรับปรุงให้ดีขึ้นอย่างมากในทางธุรกิจ ความพยายามสร้างฐานข้อมูลที่รวมเป็นหนึ่งเดียวกันสำหรับข้อมูลทั้งหมดทั่วบริษัทถูกจัดให้เป็นระบบทะเลสาบข้อมูล (Data Lakes) หากข้อมูลถูกทิ้งไว้ในรูปแบบเดิม และถูกจัดให้เป็นคลังข้อมูล ( Data Warehouse ) หากข้อมูลถูกเปลี่ยนไปสู่รูปแบบและเค้าร่างที่เหมือนกัน ข้อมูลส่วนย่อยของคลังข้อมูลเรียกว่าตลาดข้อมูล (Data Mart) ความหมายของคลังข้อมูล (Data Warehouse) โดยพื้นฐานแล้ว คลังข้อมูลคือฐานข้อมูลเชิงวิเคราะห์ ที่มักจะเป็นการวิเคราะห์แบบสัมพันธ์ที่สร้างมาจากแหล่งข้อมูลสองแห่งหรือมากกว่านั้นก็ได้ ซึ่งถูกสร้างขึ้นมาเพื่อเก็บข้อมูลย้อนหลังซึ่งอาจมีระดับเป็นหน่วยเพตะไบต์ คลังข้อมูลมักจะมีระบบประมวลผลและหน่วยความจำที่สำคัญ เพื่อใช้ในการสืบค้นที่มีความซับซ้อนและการสร้างรายงาน ซึ่งคลังข้อมูลเหล่านี้มักจะเป็นแหล่งข้อมูลสำคัญในการทำ Business Intelligence และ Machine Learning ทำไมถึงใช้คลังข้อมูล? สาเหตุสำคัญที่บริษัทใช้คลังข้อมูลระดับองค์กรหรือ Enterprise Data Warehouse (EDW) คือการที่ฐานข้อมูลที่ใช้ปฏิบัติการของคุณ (OLTP) สามารถจำกัดจำนวนและประเภทของดัชนีที่คุณสามารถสร้างได้ จึงทำให้การสืบค้นเชิงวิเคราะห์ช้าลง และเมื่อคุณคัดลอกข้อมูลเข้าสู่คลังข้อมูล คุณก็สามารถตั้งค่าดัชนีที่คุณต้องการได้ เพื่อให้คุณสามารถวิเคราะห์ข้อมูลได้ดียิ่งขึ้น โดยไม่ส่งผลกระทบต่อประสิทธิภาพการเขียนของฐานข้อมูล OLTP และอีกเหตุผลหนึ่งที่บริษัทต้องมีคลังข้อมูล ก็เพื่อให้บริษัทสามารถรวบรวมข้อมูลจากหลายแหล่งมาทำการวิเคราะห์ได้ ตัวอย่างเช่น การใช้งาน OLTP ยอดขายของคุณอาจไม่จำเป็นต้องรู้เรื่องสภาพอากาศในสถานที่ค้าขายของคุณ แต่ในทางกลับกันสิ่งที่จะได้ประโยชน์จากข้อมูลเหล่านี้คือการคาดการณ์ยอดขาย เพราะถ้าคุณเพิ่มข้อมูลสภาพอากาศย้อนหลังเข้าไปในคลังข้อมูล มันก็จะเป็นเรื่องง่ายที่จะนำข้อมูลมารวมกับโมเดลข้อมูลของยอดขายในหลายปีที่ผ่านมา คลังข้อมูลเมื่อเทียบกับ Data Lake หรือระบบทะเลสาบข้อมูล Data Lake หรือระบบทะเลสาบข้อมูลที่ใช้เก็บไฟล์ข้อมูลในรูปแบบดั้งเดิมนั้น โดยพื้นฐานแล้วคือ “Schema on Read” หมายความว่าโปรแกรมใด ๆ ที่อ่านข้อมูลจาก Data Lake จะต้องกำหนดประเภทและความสัมพันธ์ของมันเองกับข้อมูล ในทางกลับกันคลังข้อมูลคือ “Schema on Write” หมายความว่าประเภท ดัชนี และความสำพันธ์ของข้อมูลถูกกำหนดไว้กับข้อมูลขณะที่ถูกจัดเก็บใน EDW “Schema on Read” เหมาะสำหรับข้อมูลที่อาจถูกนำไปใช้ในหลากหลายบริบท และมีความเสี่ยงในการสูญเสียข้อมูลน้อย แต่ทว่ามีข้ออันตรายก็คือ ข้อมูลนั้นอาจไม่ถูกใช้งานเลย (Qubole ผู้ค้าขายเครื่องมือคลังข้อมูลแบบ Cloud สำหรับ Data Lake คาดคะเนว่า 90% ของข้อมูลใน Data Lake นั้นไม่ถูกนำมาใช้งาน) ส่วน “Schema on write” เหมาะสำหรับข้อมูลที่มีจุดประสงค์เฉพาะอย่าง และเหมาะสำหรับข้อมูลที่ต้องเกี่ยวพันอย่างเหมาะสมกับข้อมูลจากแหล่งอื่น แต่ก็มีข้อควรระวังคือ ข้อมูลที่ผิดรูปแบบอาจถูกทิ้งขณะนำเข้าเพราะมันไม่ได้เปลี่ยนรูปแบบให้เหมาะสมต่อประเภทข้อมูลที่ต้องการ คลังข้อมูลเมื่อเทียบกับตลาดข้อมูล (Data Warehouse vs Data Mart) คลังข้อมูลประกอบด้วยข้อมูลระดับบริษัท ในขณะที่ตลาดข้อมูลประกอบด้วยข้อมูลที่มุ่งเน้นเฉพาะสายงานธุรกิจ ตลาดข้อมูลอาจมีหลายรูปแบบไม่ว่าจะเป็นแบบที่ขึ้นอยู่กับคลังข้อมูล แบบไม่ขึ้นอยู่กับคลังข้อมูล หรือแบบที่ผสมผสานทั้งสอบที่กล่าวไปข้างต้น ตลาดข้อมูลถูกสร้างขึ้นมาเพราะมันมีข้อดีหลายประการ ไม่ว่าจเป็น การใช้พื้นที่น้อยลง ให้ผลลัพธ์เร็วขึ้น และมีค่าใช้จ่ายในการดำเนินการน้อยกว่าคลังข้อมูลแบบเต็ม ตลาดข้อมูลจึงมักจะประกอบไปด้วยข้อมูลที่ถูกสรุปและคัดสรรไว้แล้ว แทนที่จะเป็นข้อมูลรายละเอียดอื่น ๆ ที่มีอยู่ในคลังข้อมูล สถาปัตยกรรมคลังข้อมูล โดยทั่วไป คลังข้อมูลมีสถาปัตยกรรมหลายระดับ ได้แก่ ข้อมูลเดิม ฐานข้อมูลสำหรับเป็นที่พักข้อมูล เครื่องมือ ETL (Extract (ดึง), Transform (เปลี่ยนรูปแบบ), and Load (ถ่ายเท)) หรือ ELT (Extract, Load, and Transform) ซึ่งการจัดเก็บข้อมูลอย่างเหมาะสมและเครื่องมือนำเสนอข้อมูล แต่ละระดับมีจุดประสงค์ต่างกัน ข้อมูลเดิมมักรวมไปถึงฐานข้อมูลการปฏิบัติงานจากยอดขาย การตลาด และส่วนอื่น ๆ ของธุรกิจ และยังอาจรวมถึงโซเชียลมีเดียและข้อมูลภายนอก เช่น แบบสำรวจและสถิติประชากร ระดับที่พักข้อมูลจัดเก็บข้อมูลที่ดึงมาจากแหล่งข้อมูล ถ้าแหล่งข้อมูลไม่มีโครงสร้าง เช่น ข้อความโซเชียลมีเดีย ก็จะต้องมีการกำหนดโครงสร้างขึ้นมา รวมถึงมีการตรวจคุณภาพและการนำไปใช้งานด้วย ทั้งนี้เพื่อกำจัดข้อมูลที่มีคุณภาพต่ำและแก้ไขความผิดพลาดทั่วไป โดยเครื่อง ETL จะดึงข้อมูล ดำเนินการทำแผนที่และการเปลี่ยนรูปแบบที่ต้องการ และถ่ายเทข้อมูลเข้าสู่ระดับการจัดเก็บข้อมูล  เครื่องมือ ELT จัดเก็บข้อมูลก่อนแล้วเปลี่ยนรูปแบบในภายหลัง เมื่อคุณใช้เครื่องมือ ELT คุณอาจใช้ Data Lake ด้วยและข้ามขั้นตอนที่พักข้อมูลแบบเดิมไป ระดับจัดเก็บข้อมูลของคลังข้อมูลประกอบด้วยข้อมูลที่สะอาดและเปลี่ยนรูปแบบแล้วซึ่งพร้อมสำหรับการวิเคราะห์ โดยการจัดเก็บข้อมูลแบบนี้เป็นการจัดเก็บข้อมูลเชิงสัมพันธ์แบบเน้นเป็นแถว แต่ก็อาจมีการเน้นแบบคอลัมน์ด้วยหรือมีดัชนีแบบ Inverted-list สำหรับการค้นหาข้อความเต็ม โดยคลังข้อมูลมักจะมีดัชนีมากกว่าการจัดเก็บข้อมูลในการดำเนินงาน เพื่อให้สามารถวิเคราะห์ข้อมูลได้เร็วขึ้น การนำเสนอข้อมูลจากคลังข้อมูลมักทำโดยการดำเนินการคิวรี SQL ซึ่งอาจใช้เครื่องมือ GUI มาเป็นตัวช่วยในการสร้างได้ นอกจากนี้คิวรี SQL ยังสามารถใช้สร้างตารางการแสดงผล แผนภูมิ Dashboard รายงาน และการคาดการณ์ได้ โดยใช้เครื่องมือ BI เข้ามาช่วย เมื่อไม่นานมานี้ คลังข้อมูลเริ่มมีการรองรับ ML ที่จะปรับปรุงคุณภาพของโมเดลและการคาดการณ์ ตัวอย่างเช่น Google BigQuery ได้เพิ่มประโยคคำสั่ง SQL เพื่อรองรับโมเดลการวิเคราะห์การถดถอยเชิงเส้นและโมเดลการวิเคราะห์การถดถอยโลจีสติกไบนารีสำหรับการแบ่งประเภท นอกจากนี้คลังข้อมูลบางแห่งมีการผสานเข้าด้วยกันกับเครื่องมือ Deep Learning Libraries และ Automated ML อีกด้วย คลังข้อมูลแบบ Cloud เมื่อเทียบกับคลังข้อมูลแบบติดตั้งภายใน (On Premise) คลังข้อมูลสามารถถูกนำมาใช้ได้หลาย ไม่ว่าจะเป็นแบบติดตั้งภายใน แบบ Cloud หรือแบบผสม ที่ผ่านมาคลังข้อมูลส่วนใหญ่มักเป็นแบบติดตั้งภายใน (On-Prem Data Warehouse) แต่ก็มีปัญหาในเรื่องต้นทุนค่าลงทุนและการขาดความสามารถในการปรับขนาดได้ของเซิร์ฟเวอร์ที่ติดตั้งภายในศูนย์ข้อมูล การติดตั้ง EDW เริ่มเป็นที่นิยมมากขึ้นเมื่อผู้ค้าขายเริ่มให้บริการเครื่องมือคลังข้อมูล แต่อย่างไรก็ตาม ยังคงมีหลายบริษัทที่มีแนวโน้มที่จะย้ายคลังข้อมูลทั้งหมดหรือบางส่วนเข้าสู้ระบบ Cloud เพื่อต้องการใช้ประโยชน์จาก EDW แบบ Cloud ที่สามารถปรับขนาดได้ รวมถึงสามารถเชื่อมต่อกับบริการ Cloud อื่น ๆ ได้อย่างง่ายดาย ข้อเสียของการใช้ข้อมูลหลายเพตะไบต์เข้าไปในระบบ Cloud คือค่าใช้จ่ายในการใช้งาน ทั้งสำหรับการจัดเก็บข้อมูลแบบ Cloud และสำหรับการประมวลผลคลังข้อมูลแบบ Cloud และหน่วยความจำ คุณอาจจะคิดว่าปัญหาหลักของการอัปโหลดข้อมูลหลายเพตะไบต์เข้าสู่ระบบ Cloud คือระยะเวลาในการอัปโหลด แต่ในปัจจุบันผู้ค้าขายระบบ Cloud แบบไฮเปอร์สเกลมีการโอนถ่ายข้อมูลแบบดิสก์ซึ่งมีศักยภาพสูง คลังข้อมูลแบบบนลงล่างเมื่อเทียบกับแบบล่างขึ้นบน มีแนวความคิดใหญ่ ๆ สองแนวเกี่ยวกับวิธีออกแบบคลังข้อมูล ความแตกต่างระหว่างสองแนวนี้เกี่ยวข้องกับทิศทางการหลั่งไหลของข้อมูลระหว่างคลังข้อมูลกับตลาดข้อมูล โดยปกติ การใช้งาน EDW ในส่วนงานด้านการประกันและการผลิต มักจะชอบวิธีการของแบบบนลงล่าง ส่วนส่วนงานด้านการตลาดมักจะชอบวิธีของคิมบัลล์ ระบบทะเลสาบข้อมูล ตลาดข้อมูล หรือคลังข้อมูล องค์กรของคุณควรเลือกแบบใด? สุดท้ายแล้ว การตัดสินใจทุกอย่างที่เกี่ยวข้องกับคลังข้อมูลของบริษัทขึ้นอยู่กับเป้าหมาย ทรัพยากร และงบประมาณของบริษัท คำถามแรกคือคุณจำเป็นต้องมีคลังข้อมูลหรือไม่ ถ้าสมมุติว่าต้องการ งานต่อไปคือการระบุแหล่งข้อมูลของคุณ ขนาด อัตราการเติบโตปัจจุบัน และสิ่งที่คุณกำลังทำอยู่เพื่อใช้งานและวิเคราะห์ข้อมูลเหล่านั้น หลังจากนั้นคุณสามารถเริ่มทดลองกับระบบทะเลสาบข้อมูล ตลาดข้อมูล และคลังข้อมูลเพื่อดูว่าอันไหนใช้ได้ดีกับองค์กรของคุณ ผู้เขียนแนะนำให้ทำการทดสอบความเป็นไปได้ด้วยข้อมูลเซตย่อยขนาดเล็ก โฮสต์ในระบบฮาร์ดแวร์ที่มีอยู่ภายในองค์กรหรือในการติดตั้งระบบ Cloud...
5 September 2022

บทความ

Cloud กับการประมวลผลขนาดยักษ์ สร้าง HPC ขึ้นมาใหม่ได้อย่างไร
ก่อนอื่นเรามารู้จักกันก่อนว่า HPC คืออะไร HPC นั้นย่อมาจาก High-Performance Computing เป็นเทคโนโลยีเพื่อการคำนวณและประมวลผลด้วยความเร็วสูง ซึ่งโครงการที่ใช้การประมวลผลระดับสูงนั้นต้องใช้ทรัพยากรในการประมวลผลอย่างมาก การทำ Simulation การหาฮาร์ดแวร์ที่ใช้เฉพาะทาง ผนวกกับพลังแห่งระบบ Cloud นี่แหละที่จะขับเคลื่อนอนาคต ( เทคโนโลยี Cloud-HPC คือ อะไร ) เมื่อประมาณ 25 ปีที่แล้ว เทคโนโลยี Open Source บางอย่างถูกเอามาใช้รวมกันเพื่อสร้างระบบ E-commerce ที่แข็งแกร่ง ซึ่งในที่สุดมันก็กลายเป็นธุรกิจและมันก็จะดูดเงินคุณด้วย ถูกขนานนามว่า LAMP stack (ชุดของ Software 4 ตัวที่มารวมกันเพื่อทำ Web Server ที่เราใช้กันอยู่นี่แหละ ซึ่งประกอบด้วย Linux, Apache HTTP Server, MySQL และ PHP / Perl / Python) การรวม Open Source นี้กลายเป็นชุดมาตรฐานสำหรับนักพัฒนารุ่นสู่รุ่น แต่อย่าดูเพียงแค่ในปัจจุบัน เพราะเราอาจจะอยู่ในจุดบนสุดของ LAMP stack อีกยุคนึง อย่างไรก็ตาม คราวนี้เราไม่ได้โฟกัสที่จะหาวิธีสร้างเว็บขายอาหารสุนัขออนไลน์ในรูปแบบใหม่ แต่เรากำลังอยู่ในยุคเรเนซองส์ ยุคแห่งการจัดการกับปริมาณงานขนาดใหญ่ที่ซับซ้อน ซึ่งใช้ทรัพยากรในการประมวลผลมหาศาล การสร้างวัคซีน COVID-19, เครื่องบินเจ็ตความเร็วเหนือเสียงรูปแบบใหม่, ยานยนต์ไร้คนขับ โลกของวิทยาศาสตร์และวิศวกรรมกำลังนำเสนอนวัตกรรมใหม่ ๆ  ด้วยความเร็วที่แทบไม่เคยเห็น หรือเป็นมาก่อน จุดเริ่มต้นของ ‘การประมวลผลขนาดใหญ่’ หรือ ‘เทคโนโลยีขั้นสูง’ Cloud อาจเป็นคำอธิบายที่ง่ายเกินไป สำหรับสิ่งที่เกิดขึ้น เราไม่ได้จดบันทึกอย่างหลักแหลมเพื่อการเปลี่ยนแปลงนี้ เช่น LAMP stack สำหรับอินเทอร์เน็ต บางสิ่งที่เป็นเรื่องซับซ้อนระดับความรู้ปริญญาเอกได้ถูกปลดปล่อย เพื่อนำไปสู่การคิดค้นเครื่องมือประมวลผลที่มีความซับซ้อนมหาศาล เพื่อขับเคลื่อนงานด้วย Algorithm มันเปลี่ยนชีวิตของเราในวิถีที่ลึกซึ้งกว่า Friendster รุ่นแรกที่เป็น Social Network สมัย 10-20 ปีที่แล้วหรือ Pets.com เคยทำไว้ HPC เป็นสิ่งที่พบบ่อยที่สุดเมื่อพูดถึงเรื่องทำงานที่ต้องประมวลผลมาก ๆ ก่อนหน้าที่ Public Cloud จะกลายเป็นแพลตฟอร์มที่ใช้งานได้สำหรับแอปพลิเคชันใหม่เหล่านี้ เมื่อเราลองสแกนรายชื่อซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลก 500 อันดับแรก แล้วคุณจะเห็นจำนวนเพิ่มขึ้นเรื่อย ๆ ขึ้นอยู่กับระบบ Cloud ไม่ทั้งหมดนี้ใช่เรื่องบังเอิญ: ซูเปอร์คอมพิวเตอร์ในองค์กรและกลุ่ม Linux ขนาดใหญ่มีมานานหลายทศวรรษแล้ว มีมาก่อนหน้ายุค E-Commerce ด้วยซ้ำ เทรนด์ใหม่นี้บางครั้งก็เรียกว่า “การประมวลผลขนาดใหญ่” หรือ “เทคโนโลยีขั้นสูง” ก็ขึ้นอยู่กับ Cloud บริษัทที่ปรึกษา BCG กล่าว “พลังประมวลผลที่เพิ่มขึ้นกับต้นทุนที่ลดลงและการเพิ่มขึ้นของแพลตฟอร์มเทคโนโลยีเป็นปัจจัยสำคัญที่สุด ซึ่ง Cloud Computing ก็กำลังปรับปรุงประสิทธิภาพอย่างต่อเนื่องและขยายขอบเขตการใช้งาน” แต่ Stack หรือชุดซอฟท์แวร์อันใหม่นี้ไม่ได้เกี่ยวกับ Cloud เท่านั้น แต่ยังขึ้นอยู่กับ 3 เทคโนโลยีเมกะเทรนด์ที่เติบโตอย่างรวดเร็ว นั่นคือ ซอฟต์แวร์จำลองสถานการณ์เสมือนจริง (Simulation Software), ฮาร์ดแวร์ที่ถูกออกแบบมาเฉพาะด้าน (Specialized Hardware), และระบบ Cloud ซึ่งสิ่งเหล่านี้คือโครงสร้างทางเทคโนโลยีที่ทีมวิจัยและทีมวิทยาศาสตร์ที่มีการปรับตัวอยู่ตลอดเวลากำลังใช้ประโยชน์อยู่ทุกวันนี้ และเป็นเหตุผลที่บริษัท Startup หลายร้อยรายได้ปรากฏตัวขึ้นเพื่อเขย่าอุตสาหกรรมที่มีมายาวนานเมื่อสิบกว่าปีที่แล้ว สิ่งนี้แหละที่จะช่วยให้โลกวิศวกรเคลื่อนเร็วขึ้น เช่นเดียวกับช่วงเวลาที่ LAMP สร้างความมหัศจรรย์ในโลกอินเทอร์เน็ตในอดีต ช่วงเวลาแห่งการประมวลผลขนาดใหญ่ / เทคโนโลยีชั้นสูงของวันนี้ล้วนเกี่ยวข้องกับประสิทธิผลทางวิศวกรรม ซึ่ง Cloud ก็เป็นปัจจัยสำคัญ แม้ว่าเพียงแค่ Cloud อย่างมันจะยังไม่พอก็ตาม ยกตัวอย่างเช่น การบินและอวกาศ ตามปกติแล้ว วิศวกรด้านการบินและอวกาศจะพึ่งพากลุ่ม HPC ภายในองค์กรเพื่อจำลองตัวแปรที่จำเป็นทั้งหมดเกี่ยวข้องกับการขึ้นและลงจอด เพื่อออกแบบเครื่องบินไอพ่นความเร็วเหนือเสียง ในทางตรงกันข้ามบริษัทด้านการบินและอวกาศที่เพิ่งเริ่มต้นมุ่งตรงไปที่ Cloud ด้วยโครงสร้างพื้นฐานที่ยืดหยุ่น ซึ่งช่วยให้พวกเขาสร้างแบบจำลองและจำลองแอปพลิเคชัน โดยไม่ต้องเข้าคิวรอที่จะใช้ฮาร์ดแวร์ HPC พิเศษตามบริษัทอื่น เท่านั้นยังไม่พอเวลาในการสร้างและบำรุงรักษาฮาร์ดแวร์ก็น้อยลง ทำให้เรามีเวลาทดลองมากขึ้น นั่นคือความงดงามของแนวทางการประมวลผลของ Cloud ขนาดใหญ่ ควบคู่ไปกับซอฟต์แวร์จำลอง Simulation ที่หลากหลายช่วยให้เราสามารถสร้างโมเดลนวัตกรรมใหม่ ๆ ก่อนที่จะต้องสร้างต้นแบบที่มีความซับซ้อนทางกายภาพขึ้นมาจริง ๆ ฮาร์ดแวร์เฉพาะทางที่สร้างขึ้นในวันที่กฎของมัวร์ไม่เป็นจริง (Moore’s Law runs out of gas) ซึ่งเป็นตัวขับเคลื่อนการจำลองที่ซับซ้อนด้วย Algorithm และด้วยเทคโนโลยี Cloud นี่แหละที่ช่วยให้เราหลุดจากการต้องใช้ซูเปอร์คอมพิวเตอร์และกลุ่มในองค์กร เพราะจากเดิมที่เราต้องสร้างซูเปอร์คอมพิวเตอร์กับฮาร์ดแวร์เอง เราก็เปลี่ยนมาใช้ Cloud แทน มันทำให้ง่ายต่อการสร้างและเรียกใช้โมเดล ทำซ้ำ และปรับปรุง และเรียกใช้อีกครั้งก่อนที่จะสร้างต้นแบบทางกายภาพ (ขอชี้แจงก่อน ว่าจุดหมายส่วนใหญ่ของการประมวลผลขนาดใหญ่หรือเทคโนโลยีชั้นสูง คือการสร้างสิ่งของที่จับต้องได้จริง ๆ ไม่ใช่ซอฟต์แวร์) สิ่งที่ยุ่งยากตรงนี้คือการปรับเปลี่ยนฮาร์ดแวร์และซอฟต์แวร์เพื่อให้มันทำงานและสร้างกระบวนการที่ซับซ้อนเองได้ เพื่อให้เกิดประสิทธิภาพสูงสุดในตัวซอฟท์แวร์และฮาร์ดแวร์เอง ประเภทของงานที่อัดแน่นด้วย Algorithm เหล่านี้ต้องการ GPU ที่เป็นหน่วยประมวลผลกราฟิก (Graphics Processing Unit) ที่เชี่ยวชาญเป็นพิเศษและสถาปัตยกรรมชิปที่ใหม่กว่า เหล่าบริษัทที่จ้างคนระดับดอกเตอร์แพงหูฉี่มาออกแบบเครื่องยนต์กังหันหรือไอพ่นรุ่นใหม่ที่เป็นความลับสุดยอด ไม่ต้องการที่จะทำให้พวกเขาต้องเสียเวลาโดยบังคับมาเรียนรู้วิธีจัดการซอฟต์แวร์จำลองและฮาร์ดแวร์รวมกัน “สิบห้าปีที่แล้ว บริษัทไหนก็ตามที่ทำ HPC สร้างความแตกต่างโดยพิจารณาจากประสิทธิภาพของฮาร์ดแวร์ภายในองค์กร โดยวางเดิมพันตามกฎของมัวร์ (ที่บอกว่าคอมพิวเตอร์จะมีประสิทธิภาพดีขึ้นสองเท่าในทุก ๆ หนึ่งปีครึ่ง) ที่เชื่อว่าคอมพิวเตอร์จะยังคงให้ประสิทธิภาพที่ดีขึ้นอย่างต่อเนื่อง บนสถาปัตยกรรม x86 ทุกปี” (x86 เป็นสถาปัตยกรรมคอมพิวเตอร์ที่เริ่มถูกออกแบบตั้งแต่ยุค ค.ศ. 1980 และผ่านการพัฒนาประสิทธิภาพอย่างต่อเนื่องโดย Intel และ AMD) Joris ซีอีโอของ Rescale กล่าว “วันนี้สิ่งที่สำคัญที่สุดคือความเร็วและความยืดหยุ่น—แน่ใจก่อนว่าพนักงานวุฒิปริญญาเอกของคุณใช้ซอฟต์แวร์จำลองสถานการณ์ที่ดีที่สุดในงานของพวกเขาแล้ว ปล่อยให้เขาเป็นอิสระ อย่าให้เขาต้องมาเรียนเป็นผู้เชี่ยวชาญในการจัดการระบบประมวลผลขนาดยักษ์ และเขาจะตอบแทนคุณด้วยการสร้างนวัตกรรมที่เร็วขึ้น” ซูเปอร์คอมพิวเตอร์ในงานเฉพาะทาง ในที่สุดทุกบริษัทจะใช้การจำลองและฮาร์ดแวร์เฉพาะทางในระบบ Cloud หรือไม่? ไม่น่าจะใช่ เพราะวันนี้เรื่องฮาร์ดแวร์เฉพาะด้าน ยังอยู่กับจรวด การขับเคลื่อน ชีววิทยาเชิงคำนวณ ระบบขนส่ง และ 1% ของความท้าทายด้านการคำนวณที่ยากที่สุดในโลก แต่ขณะที่ใช้การประมวลผลข้อมูลขนาดใหญ่ยังคงถูกใช้ในโจทย์ปัญหาเฉพาะด้านในวันนี้ มันอาจนำไปสู่คลื่นลูกใหม่ของ Disruption ในวันหน้า เหมือนกับที่ Netflix ได้โค่นล้ม Blockbusters ของโลกโดยใช้การรวม “LAMP Stack” ยุคใหม่ ซึ่งประกอบด้วย Cloud, ซอฟต์แวร์จำลองสถานการณ์เสมือนจริง, และฮาร์ดแวร์ที่ถูกออกแบบมาเฉพาะด้าน บทความโดย Matt Asayเนื้อหาจากบทความของ InfoWorldแปลและเรียบเรียงโดย วิน เวธิตตรวจทานและปรับปรุงโดย ปพจน์ ธรรมเจริญพร
11 April 2022

บทความ

การจัดเก็บและประมวลผลข้อมูลเชิงพื้นที่ (Spatial data) ด้วย Cloud SQL
ทำความเข้าใจลักษณะข้อมูลเชิงพื้นที่ การจัดเก็บ และประมวลผลด้วยระบบฐานข้อมูลเชิงสัมพันธ์ เช่น Cloud SQL ด้วย PostGIS และเครื่องมืออื่น ๆ ที่เกี่ยวข้อง
17 March 2022

บทความ

12 เทรนด์เทคโนโลยีเชิงกลยุทธ์ ในปี 2022
เช็คเทรนด์เทคโนโลยีเชิงกลยุทธ์ที่จะมาแรงในปี 2022 ที่จะเข้ามามีบทบาทในภาคธุรกิจ และส่งผลต่ออนาคตในอีก 3-5 ปีข้างหน้า
24 December 2021
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.