Data science

ทำไมนักวิทยาศาสตร์ข้อมูลจึงต้องสามารถอธิบายอัลกอริทึมของพวกเขาได้

โมเดลที่คุณสร้างมีแอปพลิเคชันในโลกแห่งความเป็นจริงซึ่งส่งผลต่อการทำงานของเพื่อนร่วมงานของคุณ นั่นหมายความว่าพวกเขาจำเป็นต้องเข้าใจสิ่งที่คุณสร้างขึ้น วิธีการทำงาน และข้อจำกัดของมันคืออะไร พวกเขาไม่สามารถทำสิ่งเหล่านี้ได้ หากเป็นเรื่องลึกลับสำคัญเรื่องเดียวที่พวกเขาไม่เข้าใจ “ฉันเกรงว่าฉันจะปล่อยให้คุณทำแบบนั้นไม่ได้นะ เดฟ… ภารกิจนี้สำคัญเกินไปสำหรับฉันที่จะทำให้คุณเสี่ยง” นับตั้งแต่เหตุการณ์สุดตระการตา 2001: A Space Odyssey กลายเป็น ภาพยนตร์ที่มีคนดูมากที่สุด 1968 มนุษย์ต่างรู้สึกทึ่งและตกใจกับแนวคิดที่จะให้ AI หรืออัลกอริธึมการเรียนรู้ของเครื่องเป็นอิสระ ในคลาสสิกของ Kubrick ซูเปอร์คอมพิวเตอร์ที่มีเหตุผลและมีไหวพริบอย่างมีเหตุผลที่เรียกว่า HAL ได้รับมอบหมายให้นำทางภารกิจไปยังดาวพฤหัสบดี เมื่อเห็นว่ามนุษย์บนเรือเป็นอันตรายต่อภารกิจ HAL ก็เริ่มฆ่าพวกเขา นี่เป็นตัวอย่างที่รุนแรง แต่ข้อควรระวังยังห่างไกลจากการวางผิดที่ ในขณะที่เราจะสำรวจในบทความนี้ ครั้งแล้วครั้งเล่า เราเห็นสถานการณ์ที่อัลกอริธึม “แค่ทำงาน” มองข้ามความต้องการหรือแฟล็กสีแดงที่ไม่ได้ตั้งโปรแกรมให้รับรู้ นี่เป็นข่าวร้ายสำหรับคนและบริษัทที่ได้รับผลกระทบจาก AI และ ML ที่ผิดพลาด แต่ก็เป็นข่าวร้ายสำหรับองค์กรที่หลีกเลี่ยงศักยภาพในการเปลี่ยนแปลงของอัลกอริธึมการเรียนรู้ของเครื่องด้วยความกลัวและความไม่ไว้วางใจ การแก้ไขปัญหาเป็นสิ่งสำคัญสำหรับ CEO หรือหัวหน้าแผนกที่ต้องการประสบความสำเร็จในตลาด ในฐานะนักวิทยาศาสตร์ข้อมูล งานของคุณคือการให้ความกระจ่างแก่พวกเขา อัลกอริทึมไม่ได้มีไว้สำหรับนักวิทยาศาสตร์ด้านข้อมูลเท่านั้น ในการเริ่มต้น สิ่งสำคัญคือต้องจำไว้เสมอว่าจริงๆ แล้วคุณใช้โมเดลที่สนับสนุน AI และ ML เพื่อทำอะไร น่าจะเป็นการช่วยดึงข้อมูลเชิงลึกและสร้างรูปแบบเพื่อตอบคำถามที่สำคัญเกี่ยวกับความสมบูรณ์ขององค์กรของคุณ เพื่อสร้างวิธีการคาดการณ์ที่ดีขึ้นว่าสิ่งต่างๆ จะมุ่งหน้าไปที่ใด และทำให้การดำเนินธุรกิจ กระบวนการ และการจัดสรรงบประมาณของธุรกิจของคุณมีประสิทธิภาพมากขึ้น ไม่ว่าอุตสาหกรรมจะเป็นเช่นไร กล่าวอีกนัยหนึ่ง คุณไม่ได้สร้างอัลกอริธึมที่ชาญฉลาดเพราะเป็นความท้าทายทางวิทยาศาสตร์ที่สนุก คุณกำลังสร้างสิ่งต่าง ๆ ด้วยแอปพลิเคชันในโลกแห่งความเป็นจริงที่ส่งผลต่อการทำงานของเพื่อนร่วมงานของคุณ นั่นหมายความว่าพวกเขาจำเป็นต้องเข้าใจสิ่งที่คุณสร้างขึ้น วิธีการทำงาน และข้อจำกัดของมันคืออะไร พวกเขาต้องสามารถถามคำถามที่เหมาะสมกับคุณและแจ้งข้อกังวลได้ พวกเขาไม่สามารถทำสิ่งเหล่านี้ได้หากสิ่งทั้งหมดเป็นปริศนาใหญ่เรื่องเดียวที่พวกเขาไม่เข้าใจ เมื่ออัลกอริธึมการเรียนรู้ของเครื่องผิดพลาด ในบางครั้ง อัลกอริธึมอาจมีอคติโดยธรรมชาติที่บิดเบือนการคาดการณ์และนำไปสู่การตัดสินใจที่ไม่ยุติธรรมและไม่ช่วยเหลือ ยกตัวอย่างกรณีของการพิจารณาคดีเหยียดผิวเหยียดผิวในสหรัฐฯ ซึ่งอาชญากรรายย่อยมีแนวโน้มที่จะกระทำความผิดซ้ำโดยพิจารณาจากสีผิว มากกว่าความรุนแรงหรือความถี่ของอาชญากรรม ในบริบทขององค์กร อคติในเชิงลบในโมเดล AI และ ML ของคุณอาจดูไม่ค่อยชัดเจนนัก แต่ก็ยังอาจเป็นอันตรายต่อธุรกิจของคุณ หรือแม้แต่ลูกค้าของคุณ ตัวอย่างเช่น ความพยายามทางการตลาดของคุณอาจไม่รวมข้อมูลประชากรบางส่วน ต่อความเสียหายของคุณและของพวกเขา หรือคุณปฏิเสธแผนการให้สินเชื่อแก่ลูกค้าที่สมควรได้รับ เพียงเพราะพวกเขามีลักษณะที่ไม่เกี่ยวข้องกับผู้ที่ไม่เกี่ยวข้อง เพื่อหยุดสิ่งเหล่านี้ไม่ให้เกิดขึ้น เพื่อนร่วมงานที่ไม่ใช่ด้านเทคนิคของคุณจำเป็นต้องเข้าใจวิธีการสร้างอัลกอริทึม — ในแง่ง่าย — มากพอที่จะท้าทายเหตุผลของคุณ มิฉะนั้นอาจจบลงด้วยผลลัพธ์ที่ทำให้เข้าใจผิด การใช้ข้อจำกัดกับโมเดล AI และ ML วิธีหนึ่งที่สำคัญในการดำเนินการต่อไปคือให้นักวิทยาศาสตร์ข้อมูลทำงานร่วมกับทีมธุรกิจเมื่อตัดสินใจว่าจะใช้ข้อจำกัดใดกับอัลกอริทึม ใช้ 2001: ตัวอย่าง Space Odyssey ปัญหาที่นี่ไม่ใช่เพราะเรือลำนี้ใช้โปรแกรม AI ที่มีการเรียนรู้เชิงลึกและทรงพลังเพื่อแก้ปัญหาด้านลอจิสติกส์ ทำนายผลลัพธ์ และตอบโต้ข้อผิดพลาดของมนุษย์เพื่อส่งเรือไปยังดาวพฤหัสบดี ปัญหาคืออัลกอริธึมการเรียนรู้ของเครื่องที่สร้างขึ้นโดยคำนึงถึงภารกิจเดียวนี้ไม่มีข้อจำกัด ได้รับการออกแบบมาเพื่อให้บรรลุภารกิจด้วยวิธีที่มีประสิทธิภาพสูงสุดโดยใช้วิธีการใดๆ ที่จำเป็น การรักษาชีวิตมนุษย์ไม่ได้มีความสำคัญเป็นอันดับแรก คราวนี้ลองนึกภาพว่าแนวทางที่คล้ายคลึงกันอาจปรากฏขึ้นในบริบททางธุรกิจที่ธรรมดากว่าได้อย่างไร สมมติว่าคุณสร้างอัลกอริทึมในแพลตฟอร์มวิทยาศาสตร์ข้อมูลเพื่อช่วยให้คุณจัดหาวัสดุเฉพาะที่ใช้ในผลิตภัณฑ์ที่คุณชื่นชอบได้อย่างคุ้มค่าที่สุด ระบบที่เป็นผลลัพธ์จะค้นหาเว็บและสั่งซื้อตัวเลือกที่ถูกที่สุดที่ตรงตามคำอธิบาย อันที่จริงราคาถูกอย่างน่าสงสัย ซึ่งคุณจะพบว่าถ้าคุณต้องถามใครสักคนจากฝ่ายจัดซื้อหรือทีม R&D แต่หากไม่มีการสนทนาเหล่านี้ คุณจะไม่ทราบว่าต้องป้อนข้อจำกัดเกี่ยวกับขีดจำกัดล่างหรือแหล่งที่มาของผลิตภัณฑ์ วัสดุกลายเป็นของปลอม – และกระบวนการผลิตทั้งหมดถูกทำลาย วิธีที่นักวิทยาศาสตร์ข้อมูลสามารถสื่อสารได้ดีขึ้นในอัลกอริธึม คนส่วนใหญ่ที่ไม่ใช่นักวิทยาศาสตร์ด้านข้อมูลพบว่าการพูดถึงกลไกของ AI และ ML นั้นน่ากลัวมาก ท้ายที่สุด มันคือระเบียบวินัยที่ซับซ้อน นั่นคือเหตุผลที่คุณมีความต้องการสูง แต่เพียงเพราะมีบางอย่างที่ยุ่งยากในระดับปลีกย่อย ไม่ได้หมายความว่าคุณไม่สามารถพูดถึงมันในแง่ง่ายๆ ได้ กุญแจสำคัญคือการดึงดูดทุกคนที่จะใช้โมเดลให้เร็วที่สุดในการพัฒนา พูดคุยกับเพื่อนร่วมงานของคุณเกี่ยวกับวิธีที่พวกเขาจะใช้แบบจำลองและสิ่งที่พวกเขาต้องการจากแบบจำลอง อภิปรายเกี่ยวกับลำดับความสำคัญและข้อกังวลอื่นๆ ที่ส่งผลต่อการสร้างอัลกอริทึมและข้อจำกัดที่คุณใช้ อธิบายอย่างชัดเจนว่าผลลัพธ์สามารถนำมาใช้เพื่อแจ้งการตัดสินใจของพวกเขาได้อย่างไร แต่ยังรวมถึงที่ที่พวกเขาอาจต้องการเข้าไปแทรกแซงด้วยวิจารณญาณของมนุษย์ ทำให้ชัดเจนว่าประตูของคุณเปิดอยู่เสมอและโปรเจ็กต์จะค่อยๆ พัฒนาไปตามกาลเวลา คุณสามารถปรับแต่งได้หากยังไม่สมบูรณ์แบบ โปรดทราบว่าผู้คนจะมีความมั่นใจมากขึ้นเกี่ยวกับการใช้ผลลัพธ์ของอัลกอริทึมของคุณ หากพวกเขาสามารถปรับแต่งผลลัพธ์และปรับพารามิเตอร์ได้ด้วยตนเอง พยายามหาทางแก้ไขที่ทำให้แต่ละคนมีอิสระแบบนั้น ด้วยวิธีนี้ หากสัญชาตญาณของพวกเขาบอกว่ามีบางอย่างผิดปกติ พวกเขาสามารถสำรวจสิ่งนี้เพิ่มเติม แทนที่จะเพิกเฉยต่ออัลกอริทึมหรือเพิกเฉยต่อข้อกังวลที่อาจเป็นไปได้ Final Thoughts: Shaping the Future of AI ในฐานะศาสตราจารย์ Hannah Fry ผู้เขียน Hello World: How to be human in the age of machine, อธิบายในการให้สัมภาษณ์กับ the Economist: “ถ้าคุณออกแบบอัลกอริทึมเพื่อบอกคำตอบแต่คาดหวัง มนุษย์ที่จะตรวจสอบซ้ำ ตั้งคำถาม และรู้ว่าเมื่อใดควรแทนที่ คุณกำลังสร้างสูตรสำหรับภัยพิบัติ ไม่ใช่สิ่งที่เราจะเก่งมาก แต่ถ้าคุณออกแบบอัลกอริธึมของคุณให้แสดงความไม่แน่นอนอย่างภาคภูมิไว้ด้านหน้าและตรงกลาง—เปิดกว้างและซื่อสัตย์กับผู้ใช้เกี่ยวกับวิธีที่พวกเขาตัดสินใจ และความยุ่งเหยิงและความคลุมเครือทั้งหมดที่ต้องตัดผ่านเพื่อไปถึงจุดนั้น—ก็ง่ายกว่ามาก เพื่อให้รู้ว่าเมื่อใดเราควรเชื่อสัญชาตญาณของตัวเองแทน” กล่าวอีกนัยหนึ่ง หากนักวิทยาศาสตร์ด้านข้อมูลสนับสนุนให้เพื่อนร่วมงานวางใจโดยปริยายในอัลกอริธึมที่คล้าย HAL และไร้ข้อผิดพลาด ไม่เพียงแต่สิ่งนี้จะนำไปสู่ปัญหาเท่านั้น แต่ยังจะบ่อนทำลายความไว้วางใจใน AI และ ML ในอนาคตด้วย แต่คุณต้องสนทนากับเพื่อนร่วมงานอย่างชัดเจน ตรงไปตรงมา และตรงไปตรงมาเกี่ยวกับศักยภาพและข้อจำกัดของเทคโนโลยีและความรับผิดชอบของผู้ที่ใช้เทคโนโลยีนี้ และคุณจำเป็นต้องทำในภาษาที่พวกเขาเข้าใจ

  • บ้าน
  • Business
  • Data science
  • Marketing
  • Leave a Reply

    Your email address will not be published. Required fields are marked *

    Back to top button