Data Cleansing with SQL ทำอย่างไร? มีข้อดี – ข้อเสียอย่างไร

data-cleansing-sql-vs-python

ในการเตรียมข้อมูล (มีหลายชื่อเรียก Data Wrangling / Cleansing / Preparation / Transformation) หลายคนอาจจะคุ้นเคยการใช้ Python ไม่ว่าจะเป็น Pandas หรือ PySpark ในการช่วยตรงขั้นตอนนี้

ในปัจจุบันที่เทคโนโลยีพัฒนามากขึ้น การใช้ SQL จึงกลายเป็นทางเลือกใหม่ในการเตรียมข้อมูล ที่เผลอ ๆ ทำได้ง่าย และมีประสิทธิภาพกว่าการใช้ Python อีกด้วย

ในบทความนี้ เลยจะมาเล่าให้ฟังว่า การเตรียมข้อมูลด้วย SQL เป็นยังไง และมีข้อดี – ข้อเสีย ยังไงบ้าง

พร้อมแล้วมาเริ่มกันเลย

สารบัญเนื้อหา hide

การเตรียมข้อมูลแบบทั่วไป [Data Cleansing] โดยใช้ Python

python-data-preparation-wrangling-cleaning

การเตรียมข้อมูล (จะเรียกว่า Data Wrangling / Cleansing / Preparation / Transformation ก็ได้) เราสามารถทำได้ง่าย ซึ่งถ้าเริ่มต้นก็อาจจะใช้ Spreadsheet Tools เช่น Microsoft Excel, Google Sheets

อย่างไรก็ตาม เมื่อข้อมูลเพิ่มมากขึ้น โปรแกรม Spreadsheets จะไม่ตอบโจทย์ เนื่องจากเครื่องมือเหล่านี้ไม่รองรับข้อมูลที่ขนาดถึงระดับหนึ่ง (ประมาณ 1 ล้านแถว) ทำให้เราต้องมองหาเครื่องมือใหม่ที่ช่วยในการเตรียมข้อมูล

เครื่องมือหนึ่งที่ได้รับความนิยมในการเตรียมข้อมูล คือ ภาษา Python เพราะมีส่วนเสริมที่ช่วยให้เตรียมข้อมูลได้สะดวก

การใช้ส่วนเสริม Pandas และ PySpark สำหรับเตรียมข้อมูล

pandas apache pyspark data tools

เครื่องมือที่เราคุ้นเคยกันก็หนีไม่พ้น Pandas ที่ได้รับความนิยมมาก เนื่องจากเข้าใจง่าย และมีจำนวนผู้ใช้ทั่วโลกเยอะ ทำให้มีแหล่งข้อมูลให้ศึกษาเยอะ และหากเจอปัญหาก็หาคำตอบได้รวดเร็ว

Pandas มาพร้อมคำสั่งพร้อมใช้ในการเตรียมข้อมูลหลากหลายคำสั่ง โปรเจคฝึกงานที่เคยทำก็ใช้ Pandas ในการช่วยเตรียมข้อมูล

[บทความแนะนำ: หากสนใจโค้ดเรื่องการใช้ Pandas สำหรับเตรียมข้อมูล เรามีรวบรวมชุดคำสั่งไว้ในบทความ Pandas Cheatsheet รวมคำสั่งที่ใช้บ่อย]

อย่างไรก็ตาม Pandas มีปัญหาเรื่องการทำงานกับข้อมูลขนาดใหญ่กว่า RAM ของคอมพิวเตอร์เครื่องเดียว ทำให้ถ้าข้อมูลขนาดใหญ่มาก ๆ เช่น ถ้าข้อมูล 10+ ล้านแถว เวลาเปิดใน Pandas ก็อาจจะทำงานช้า หรือทำงานไม่ได้เลย (ยกเว้นคอมพิวเตอร์ของเรา RAM เยอะมาก ๆ)

จุดนี้เองที่ PySpark เข้ามาช่วยได้ เพราะ PySpark รองรับข้อมูลขนาดใหญ่ โดยการนำคอมพิวเตอร์หลายเครื่องมาทำงานร่วมกัน ทำให้เราสามารถประมวลผลข้อมูลที่ใหญ่กว่า RAM ของคอมพิวเตอร์เครื่องเดียวได้

แปลว่า ถ้ามีคอมพิวเตอร์อยู่หลายเครื่อง การใช้ PySpark ประมวลผลข้อมูลจะได้ผลลัพธ์ที่ดีกว่านั่นเอง

หรือถ้ามีคอมพิวเตอร์เครื่องเดียว เราก็สามารถเช่า Cloud Computing ที่มีคอมพิวเตอร์จำนวนมากซึ่งรอเราเข้าไปใช้บริการ

[บทความแนะนำ: หากสนใจโค้ดเรื่องการใช้ Pandas สำหรับเตรียมข้อมูล เรามีรวบรวมชุดคำสั่งไว้ในบทความ PySpark Cheatsheet รวมคำสั่งที่ใช้บ่อย]

จะเห็นว่า Pandas กับ PySpark ก็ครอบคลุมได้สำหรับข้อมูลทุกขนาดแล้ว

  • ✅ Pandas เหมาะกับการประมวลผลบนคอมพิวเตอร์เครื่องเดียว
  • ✅ PySpark เหมาะกับการประมวลผลบนคอมพิวเตอร์หลายเครื่อง

แล้ว SQL ทำให้การเตรียมข้อมูลดีขึ้นยังไง มาดูกันต่อเลย

การใช้ SQL เตรียมข้อมูล ดีกว่า Python ยังไง

python-data-preparation-wrangling-cleaning

การนำข้อมูลเข้าไปเตรียมข้อมูลใน Python สามารถทำได้ก็จริง แต่การเตรียมข้อมูลด้วย Python มีปัญหาต่าง ๆ ต่อไปนี้

  1. ประสิทธิภาพที่อาจลดลง และค่าใช้จ่ายที่อาจเพิ่มขึ้น – การจะนำข้อมูลไปเตรียมใน Python เราจำเป็นต้องบันทึกข้อมูลออกมาจากระบบข้อมูล (เช่น Database, Data Warehouse) ก่อน แล้วค่อยนำไปเปิดใน Python อีกที ซึ่งต้องใช้เวลาในการบันทึกไฟล์ ทำให้ทำงานล่าช้าลง และอาจมีค่าใช้จ่ายมากขึ้นจากการต้องส่งข้อมูลข้ามระบบ (Egress cost) นอกจากนั้นยังมีความเสี่ยงเรื่องส่งข้อมูลที่ไม่ปลอดภัย เช่น การส่งไฟล์ข้อมูลทางอีเมล และหลังจากเตรียมใน Python เสร็จแล้ว ต้องเอากลับไปเก็บในระบบเก็บข้อมูล ซึ่งมีความเสี่ยงเรื่องความปลอดภัยและใช้เวลาทำงานอีก
  2. คนที่จะใช้งานต้องเรียนรู้ Python – เนื่องจาก Python ไม่ใช่ภาษาหลักในการทำงานกับข้อมูล ทำให้คนที่ทำงานในวงการ Data ทั้ง Data Analyst, Data Scientist, Data Engineer และอาชีพอื่น ๆ จะเขียนโค้ด SQL ได้ แต่อาจเขียน Python ไม่ได้
  3. ปัญหาในการบันทึกไฟล์ และการเปิดไฟล์ในระบบที่แตกต่างกัน – ในการบันทึกไฟล์จากฐานข้อมูล แล้วนำไฟล์ไปเตรียมข้อมูลใน Python มีความเสี่ยงที่จะเกิดปัญหาได้ เช่น ไฟล์มีขนาดใหญ่เกินไป ทำให้บันทึกไม่สำเร็จ, หรือนำไปเปิดใน Python แล้วข้อมูลเพี้ยน ประเภทข้อมูลเปลี่ยน

และนี่เป็นจุดขายที่ทำให้การนำ SQL เข้ามาใช้ในงานเตรียมข้อมูล มีประโยชน์มากขึ้น เพราะการใช้ SQL

  • ไม่ต้องนำข้อมูลเข้า – ออกจากระบบ ข้อมูลอยู่บนฐานข้อมูลได้เลย แล้วเราส่งโค้ด SQL เข้าไปประมวลผล ทุกอย่างเกิดขึ้นในระบบเก็บข้อมูล ไม่มีค่าใช้จ่ายในการขนย้ายข้อมูล และมีความปลอดภัยอีกด้วย
  • คนที่จะใช้งานไม่ต้องเรียนรู้ภาษาใหม่ เพราะ SQL เป็นภาษาที่คนทำงาน Data รู้จักอยู่แล้ว หรือถ้าไม่รู้จักก็เรียนรู้ได้ง่าย และไม่ต้องเรียนคอนเซปต์การเขียนโปรแกรม เช่น การเขียน Loop, Condition (เช่น if, case)
  • ✅ ไม่ต้องปวดหัวเรื่องปัญหาการบันทึกไฟล์ หรือการนำไปเปิดในระบบที่แตกต่างกัน แล้วข้อมูลเพี้ยน เพราะไม่มีการขนย้ายข้อมูล ทุกอย่างเก็บอยู่ในระบบเดิม ข้อมูลหน้าตาแบบเดิม

อย่างไรก็ตาม การใช้ SQL เพื่อนำมาเตรียมข้อมูลขนาดใหญ่ ไม่ใช่เรื่องที่เรามักจะทำกันในงาน Data ในอดีต (หรืออาจจะรวมปัจจุบันด้วยในบางองค์กร) เพราะก่อนหน้านี้ไม่สามารถทำได้สะดวกนัก

มาดูกันว่าทำไม

ปัญหาของการใช้ SQL ในการเตรียมข้อมูลในอดีต และทางแก้ในปัจจุบัน

data-python-processing-power-tools

ปัญหาและวิธีแก้ 1) ระบบเก็บข้อมูลมีพลังประมวลผลไม่พอ

ภาษา SQL โดยปกติเราจะใช้ทำการดึงข้อมูล วิเคราะห์ข้อมูลในระบบเก็บข้อมูล

ซึ่งในอดีต ระบบเก็บข้อมูล (Database. Data Warehouse) จะรวมที่เก็บข้อมูล (Storage) และพลังประมวลผล (Compute) ไว้ในคอมพิวเตอร์ (Server) เครื่องเดียวกัน รวมถึงพลังประมวลผลมาพร้อมกับค่าใช้จ่ายที่แพงขึ้นอย่างมหาศาล

แปลว่า การซื้อเครื่องคอมพิวเตอร์ที่มีระบบเก็บข้อมูลที่เก็บได้เยอะ แล้วมีพลังประมวลผลสูงด้วย จะต้องใช้เงินลงทุนจำนวนมหาศาลลลลลลลลล

แต่ในปัจจุบัน ระบบเก็บข้อมูลสมัยใหม่หลายตัว มีการแยก ที่เก็บข้อมูล กับ พลังประมวลผล ออกจากกัน ตัวอย่างเช่น Cloud Data Warehouse ระดับโลก อย่าง Snowflake

ระบบเก็บข้อมูลสมัยใหม่ทำให้บริษัทที่ใช้งานสามารถอัพเกรดเฉพาะพื้นที่เก็บข้อมูลตามจำเป็น หรืออัพเกรดพลังประมวลผลตามที่จำเป็น แยกจากกันได้อย่างอิสระ

รวมถึงค่าใช้จ่ายของพลังประมวลผลก็ลดลงมหาศาล อย่างในปี 1995 RAM 1 GB มีราคาเกือบ $100,000 แต่ในปัจจุบัน RAM 1 GB ราคาเพียง $10 (อ้างอิง: AI Impacts)

จากที่กล่าวมา ทำให้ระบบเก็บข้อมูลสมัยใหม่มีพลังประมวลผลมากพอเพื่อใช้สำหรับเตรียมข้อมูลขนาดใหญ่ได้ไม่ยาก ซึ่งทำให้เราสามารถใช้ SQL เตรียมข้อมูลได้ ไม่ต้องนำข้อมูลออกมาเตรียมใน Python แล้วยังต้องส่งข้อมูลกลับไปเข้าฐานข้อมูลอีก

เกร็ดเสริม:
การเปลี่ยนจากเทรนด์ ETL เป็น ELT ก็มาจากเหตุผลนี้เช่นกัน

ปัญหาและวิธีแก้ 2) เครื่องมือที่ขาดการพัฒนา

ในอดีต ยังไม่มีเครื่องมือที่รองรับการเขียน SQL เพื่อการเตรียมข้อมูลที่ดี เช่น ต้องเขียน SQL แล้วบันทึกอยู่ในระบบ ถ้าระบบฐานข้อมูลเกิดปัญหา โค้ด SQL ที่เราเขียนไว้ก็หายหมด

แต่ในปัจจุบัน มีเครื่องมือที่ช่วยให้โค้ด SQL ของเราสามารถเก็บไว้ในระบบจัดการโค้ด (Version Control System อย่างเช่น Git) ได้อย่างสะดวก เช่น dbt – data build tool ซึ่งได้รับความนิยมมากในปัจจุบัน

dbt ทำให้เราสามารถเขียนโค้ด SQL เก็บลงใน Git repository ได้ โค้ดไม่มีวันหาย และจัดการเป็นระบบ ช่วยส่งโค้ด SQL ของเราเข้าไปในระบบเก็บข้อมูลปลายทาง เช่น Snowflake, Google BigQuery, Databricks

นอกจากนั้น ในปัจจุบันมีเครื่องมือหลายตัวที่มีคอนเซปต์คล้าย dbt เช่น Google Dataform, SQLMesh ทำให้ผู้ใช้มีเครื่องมือให้เลือกมากมาย

จากที่กล่าวมา ทำให้การใช้ SQL เข้ามาเตรียมข้อมูลทำได้สะดวกขึ้นเยอะมาก

เกร็ดเสริม 2:
ตอนผมทำงานด้าน Data Consultant ก็เจอปัญหาเหมือนกันว่าอยากเขียน SQL เพราะทั้งทีมเข้าใจได้ง่าย แต่เจอปัญหาว่าเครื่องมือยังไม่ดีนัก และเก็บโค้ดลงระบบ Version Control ไม่ได้ ซึ่งพอเจอ dbt ก็เหมือนโลกทั้งใบเปลี่ยนไปเลยทีเดียว

ตัวอย่างการใช้ SQL เพื่อเตรียมข้อมูล

sql-data-preparation-wrangling-cleansing

การใช้ SQL ในการเตรียมข้อมูลทำได้ง่ายกว่าที่คิด และโค้ด SQL สำหรับการเตรียมข้อมูลแบบพื้นฐาน จะอ่านได้ง่ายกว่าโค้ด Python อีกด้วย

เรามาลองดูตัวอย่างกัน โดยในบทความนี้จะมีโค้ด SQL คู่กับโค้ด Python (Pandas) ให้ในแต่ละตัวอย่าง เพื่อให้เปรียบเทียบได้ง่าย

ตัวอย่าง 1) การเตรียมข้อมูลแบบง่าย ด้วยการ Filter

หลายครั้งในการทำงานจริง เรามีข้อมูลจำนวนมาก แล้วต้องการหาเฉพาะค่าที่เราต้องการ เช่น เรามียอดการขายทั้งหมดจากระบบ (sales_transactions) แต่บางยอดลูกค้าจ่ายไม่สำเร็จ เราอยากได้เฉพาะยอดที่จ่ายสำเร็จ (paid = 1) เท่านั้น

เขียนเป็น SQL ในการ Filter ข้อมูล ได้ว่า

SELECT *
FROM sales_transactions
WHERE paid = 1;

ตัวอย่างโค้ด Filter ข้อมูล ใน Python

filtered_data = df[df['paid'] == 1]

ในตัวอย่างนี้ เราจะเห็นว่าโค้ด SQL อ่านได้ง่ายกว่าว่าต้องการทำอะไร และด้วยความที่ภาษา SQL หน้าตาคล้ายภาษาอังกฤษ​ ทำให้ถึงเราไม่รู้วิธีการเขียนโค้ด ก็สามารถทำความเข้าใจได้

ตัวอย่าง 2) การเตรียมข้อมูลแบบยากขึ้นมาหน่อย การรวมข้อมูล (Aggregate) ด้วยการแบ่งกลุ่ม (Group By)

หลายครั้งในการทำงานจริง เราต้องการหาผลรวมของข้อมูล ที่แบ่งตามกลุ่ม เช่น เรามีข้อมูลยอดขายทั้งหมด (sales_transactions) แล้วอยากคำนวณผลรวมยอดขาย (sales_amount) โดยแบ่งตามกลุ่มสินค้า (product_category) เช่น ผลไม้, เนื้อสัตว์, เครื่องปรุง ฯลฯ

เขียนเป็น SQL เพื่อคำนวณผลรวม และแบ่งกลุ่ม แบบนี้

SELECT category, SUM(sales_amount) AS total_sales
FROM sales_transactions
GROUP BY product_category;

ส่วนถ้าเป็น Python เราเขียนโค้ดคำนวณผลรวม และแบ่งกลุ่ม แบบนี้

grouped_data = df.groupby('category')['sales_amount']
sum_data = grouped_data.sum()
sum_data_correct_index = sum_data.reset_index()

ในตัวอย่างนี้ จะเห็นว่าโค้ด SQL ทำงานจบได้ในคำสั่งเดียว ส่วน Python ต้องใช้ถึง 3 คำสั่ง

ตัวอย่าง 3) การเตรียมข้อมูลแบบซับซ้อน เช่น การรวมข้อมูล (join)

หลายครั้งในการทำงานจริง เรามีข้อมูลแบ่งอยู่ในหลายตาราง หรือข้อมูลจากหลายระบบ แล้วต้องการนำข้อมูลมารวมกัน

โค้ด SQL ในการรวมข้อมูล ทำได้แบบนี้

SELECT orders.order_id, orders.order_date, customers.customer_name
FROM orders
INNER JOIN customers ON orders.customer_id = customers.customer_id;

ส่วนโค้ด Python ในการรวมข้อมูล จะหน้าตาแบบนี้

merged_data = pd.merge(orders, customers, on='customer_id')

ในตัวอย่างนี้ จะเห็นว่าพอการเตรียมข้อมูลมีความซับซ้อนมากขึ้น โค้ด Python อาจอ่านเข้าใจได้ง่ายกว่า

และถ้าท่านใดอยากเรียนรู้เกี่ยวกับคำสั่ง SQL เพิ่มเติมสำหรับการเตรียมข้อมูล สามารถดูวีดิโอนี้จาก Google Careers เพื่อศึกษาเพิ่มเติมได้

คำถามเพื่อเช็คว่า เราควรใช้ SQL ในการเตรียมข้อมูลตอนไหน

when-to-use-sql-data-preparation

ถึงแม้การใช้ SQL ในการเตรียมข้อมูลจะมีข้อดีที่ทำให้น่าสนใจมาก แต่ไม่ใช่ว่าเราจะสามารถใช้ SQL แทน Python ในการเตรียมข้อมูลได้ในทุกงานหลังจากอ่านบทความนี้เลย

สิ่งที่ต้องคำนึงเมื่อตัดสินใจว่าจะเตรียมข้อมูลด้วย SQL หรือ Python ดี คือ

1. 💬 คนในทีมถนัดภาษาไหน

คนในทีมอาจจะถนัดภาษา SQL มากกว่า หรือถนัด Python มากกว่า ซึ่งโดยปกติถ้าทำงานกับเฉพาะ Data Engineer อาจจะถนัด Python มากกว่า

แต่ถ้าเราในโปรเจคนี้มีทีมที่ใหญ่ ในโปรเจคนี้อาจจะมีคนสาย Data หรือสายใกล้เคียงอื่น ๆ เข้ามาช่วยด้วย เช่น Data Analyst, Business Intelligence Analyst ซึ่งพวกเขาอาจจะถนัด SQL มากกว่า

ในเคสนี้ การใช้ SQL เตรียมข้อมูลก็จะทำให้เรามีคนที่สามารถช่วยงานเตรียมข้อมูลได้มากกว่าเดิม ทำให้งานเสร็จเร็วกว่าเดิม

2. 💬 เทคโนโลยีรองรับมั้ย

บางองค์กรอาจจะใช้ระบบเก็บข้อมูล (Database, Data Warehouse) ที่ค่อนข้างเก่า ไม่รองรับเครื่องมือสมัยใหม่อย่าง dbt

วิธีการตรวจสอบ คือ ดูว่าระบบเก็บข้อมูลที่เราใช้รองรับเครื่องมือที่ทำให้ทำงานกับ SQL ได้ง่าย อย่าง dbt มั้ย หรืออาจจะเป็นเครื่องมืออื่นที่มีคอนเซปต์การเชื่อมต่อกับ Git repository เช่น Google Dataform ก็ได้

ระบบเก็บข้อมูลสมัยใหม่ เช่น Snowflake, Google BigQuery, Databricks จะรองรับ dbt อยู่แล้ว และสามารถประมวลผล SQL ได้รวดเร็ว เพราะระบบเหล่านี้สร้างมาเพื่ออ่าน SQL อยู่แล้ว

ถ้าระบบเก็บข้อมูลของเรารองรับ เราก็สามารถใช้ SQL ในการเตรียมข้อมูลได้

3. 💬 ต้องการความปลอดภัยมากแค่ไหน

อย่างที่เราคุยกันไปก่อนหน้านี้ว่าการย้ายข้อมูลจากระบบเก็บข้อมูลไป Python ทำให้เกิดความเสี่ยงเรื่องความปลอดภัยของข้อมูล

เพราะฉะนั้น ถ้างานของเราต้องคำนึงถึงความปลอดภัยสูง การใช้ SQL ในการเตรียมข้อมูลสามารถช่วยในส่วนนี้ได้เยอะ ไม่ต้องพะวงว่าจะเกิดปัญหาในการย้ายข้อมูลเข้า – ออก

4. 💬 ต้องการควบคุมค่าใช้จ่ายมากแค่ไหน

ค่าใช้จ่ายในการย้ายข้อมูลออกจากระบบเก็บข้อมูลที่อยู่บน Cloud Computing เรียกว่า Egress ซึ่งปกติจะคิดเป็นราคาต่อขนาดข้อมูล (per GB) ซึ่งทำให้ หากเรามีข้อมูลเยอะ ค่าใช้จ่ายส่วน Egress ก็จะราคาสูงไปด้วย

อย่างไรก็ตาม ค่าใช้จ่าย Egress เราแก้ได้ระดับหนึ่ง โดยการติดตั้ง Python บนคอมพิวเตอร์ที่อยู่บน Cloud Computing เลย (เช่น บริการ EC2 ใน AWS หรือบริการ Google Compute Engineer ใน Google Cloud) ทำให้เราไม่ต้องเสียค่า Egress แต่เสียค่าคอมพิวเตอร์เพิ่มบนระบบ Cloud Computing เพื่อใช้งาน Python แทนนั่นเอง

อย่างไรก็ตาม ค่าใช้จ่ายที่เราไม่สามารถเลี่ยงได้หากใช้ Python คือ ค่าเวลาของคนทำงานที่ต้องย้ายข้อมูลจากระบบเก็บข้อมูลซึ่งใช้ SQL เข้าไปในระบบ Python และเวลาในการย้ายกลับหลังจากเตรียมข้อมูลเสร็จ

เพราะฉะนั้น ถ้าต้องการควบคุมค่าใช้จ่ายให้น้อยที่สุด ลองเปรียบเทียบค่าใช้จ่ายระหว่างการใช้ Python ที่ต้องนำข้อมูลออกมาเตรียม กับการใช้ SQL ที่ทำได้ในระบบเก็บข้อมูลเลย

สรุป การใช้งาน SQL ในการเตรียมข้อมูล ดีมั้ย

การใช้ SQL เข้ามาทำงานเตรียมข้อมูลทำให้ชีวิตสบายขึ้นมาก ไม่ต้องคอยพะวงเรื่องปัญหาการย้ายข้อมูล และค่าใช้จ่ายที่อาจเพิ่มขึ้น อย่างไรก็ตาม จากที่เราคุยกันด้านบน ไม่ใช่ว่าเราจะสามารถใช้ SQL เตรียมข้อมูลได้ตลอดเวลา

สรุปจุดที่ทำให้การใช้ SQL เตรียมข้อมูลมีความน่าสนใจ

  • ✅ ไม่ต้องนำข้อมูลเข้า – ออกจากระบบ
  • ✅ คนที่จะใช้งานไม่ต้องเรียนรู้ภาษาใหม่
  • ✅ ไม่ต้องปวดหัวเรื่องปัญหาการบันทึกไฟล์ หรือการนำไปเปิดในระบบที่แตกต่างกัน

และสิ่งที่ต้องคำนึงถึงตอนที่เลือกว่าจะใช้ SQL ในการเตรียมข้อมูลดี หรือใช้ Python ดี

  • 💬 คนในทีมถนัดภาษาไหน
  • 💬 เทคโนโลยีรองรับมั้ย
  • 💬 ต้องการความปลอดภัยมากแค่ไหน
  • 💬 ต้องการควบคุมค่าใช้จ่ายมากแค่ไหน

ลองใช้ข้อมูลเหล่านี้ช่วยการตัดสินใจดูครับ เนื่องจากไม่มีคำตอบที่ถูกต้องเสมอกับงานทุกโปรเจคว่าต้องใช้แบบไหน หน้าที่ของเราคือเลือกสิ่งที่เหมาะสมกับงานมากที่สุด

ฝากไว้ให้คิด: อ่านบทความนี้แล้วคิดว่างานของเราใช้แบบไหนดี? หรือถ้าใช้ Python เตรียมข้อมูลอยู่ จะเปลี่ยนไปใช้ SQL ดีมั้ย? (อาจจะลองส่งบทความนี้ให้หัวหน้าอ่านดูก็ได้นะ)

ใครที่อ่านแล้วชอบบทความแนวนี้ ในช่องทางต่าง ๆ ของ DataTH เราจะนำเรื่องราว Data Science / Data Engineering ที่น่าสนใจ มาเล่าให้เข้าใจง่าย อัพเดทใหม่กันตลอดครับ กดติดตามกันได้ที่ Facebook Page: DataTH และ Youtube Channel: Data Science ชิลชิล ได้เลย!

บทความอื่น ๆ ที่เกี่ยวข้อง

PDPA Icon

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

Allow All
Manage Consent Preferences
  • Always Active

Save