Hadoop คืออะไร เครื่องมือ Big Data ที่ทั่วโลกใช้ มีส่วนประกอบอะไรบ้าง
Hadoop เครื่องมือประมวลผล Big Data ผ่านคอมพิวเตอร์หลายเครื่อง ประกอบไปด้วย 3 ส่วนหลัก HDFS, MapReduce และ YARN
Hadoop เครื่องมือประมวลผล Big Data ผ่านคอมพิวเตอร์หลายเครื่อง ประกอบไปด้วย 3 ส่วนหลัก HDFS, MapReduce และ YARN
Apache Spark เป็นเครื่องมือหนึ่งที่ถูกดีไซน์มาให้เราใช้งานแบบทำงานกลุ่มได้ โดยที่เชื่อมต่อระบบการทำงานของคอมพิวเตอร์เข้าด้วยกัน หรือเรียกว่า Cluster computing platform
สายอาชีพ Data Engineer ที่ทุกบริษัทด้าน Data ต้องมี แต่คนไม่ค่อยรู้จักกัน ผู้สร้าง Data Pipeline และ Data Platform โดยผนวกความรู้ด้าน Cloud Computing
© Copyright 2018 - Present: DATATH. All rights reserverd.
เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า