ฟังสัมภาษณ์ Demis Hassabis ผู้ก่อตั้งและซีอีโอของ DeepMind (ปัจจุบันคือ Google DeepMind หลังรวมร่างกับ Google Brain) ให้มุมมองเรื่องตลาด AI ที่อาจแตกต่างไปจากบริษัทอื่นๆ อยู่พอสมควร
ตัวของ Hassabis ถือเป็นยอดมนุษย์คนหนึ่ง เขามีเชื้อสายกรีก-ไซปรัสทางพ่อ และจีนสิงคโปร์ทางแม่ เกิดในอังกฤษ เป็นแชมป์หมากรุกตั้งแต่เด็ก ได้ทุนเรียน Cambridge แต่อายุน้อยไป เลยต้องมี gap year ซึ่งเขาเลือกไปทำงานกับสตูดิโอเกม Bullfrog ของ Peter Molyneux และมีส่วนร่วมกับเกมในตำนานทั้งหลาย เช่น Syndicate และ Theme Park ทำอยู่ปีเดียวรวยจนมีเงินไปเรียนมหาลัยจบ 4 ปี
หลังจากจบมหาลัย เขาไปทำงานกับ Lionhead Studios สตูดิโอใหม่ของ Molyneux และเป็นผู้เขียน AI ของเกม Black & White จากนั้นปี 1998 ออกมาเปิดสตูดิโอเกมของตัวเองชื่อ Elixir Studios ทำเกมเลือกตั้งชื่อ Republic: The Revolution และเกมวางแผน Evil Genius แต่ไม่ประสบความสำเร็จนัก จึงปิดสตูดิโอในปี 2005 แล้วกลับไปเรียนปริญญาเอกด้าน Neuroscience เพราะสนใจเรื่องสมองของมนุษย์เพื่อมาพัฒนา AI ให้ดีขึ้น
เขาเรียนจบ ป.เอก ปี 2009 แล้วร่วมก่อตั้ง DeepMind ในปี 2010 ก่อนขายให้กูเกิลในปี 2014
บทความตอนเก่าที่เกี่ยวข้อง – Mustafa Suleyman ซีอีโอของ Inflection AI ซึ่งร่วมก่อตั้ง DeepMind กับ Hassabis โดย Suleyman เลือกลาออกจากกูเกิลไปเปิดบริษัทใหม่ ในขณะที่ Hassabis ยังอยู่และกลายเป็นผู้นำสูงสุดในสายงาน AI ของกูเกิลตอนนี้ ส่วนผู้ร่วมก่อตั้งอีกคน Shane Legg ก็ยังอยู่กับ DeepMind ในฐานะ chief AGI scientist
การก่อตั้ง DeepMind
- มาจากสายวิชาการในช่วงที่ deep learning กำลังเริ่มก่อตัว ทีมของเขาเห็นโอกาสเรื่องเทคนิค reinforcement learning + การใช้ GPU ช่วยประมวลผล + การออกแบบอัลกอริทึมเลียนแบบสมอง จึงมาก่อตั้งบริษัท แล้วพบว่าผลงานออกมาดีตามที่คิดไว้
- เลือกมาอยู่กับกูเกิล เพราะรู้ว่าต้องอาศัยพลังประมวลผลมาก และกูเกิลมีทรัพยากรด้านการประมวลผลมากที่สุดในโลก ช่วยให้ผลักดันงานวิจัยได้เร็ว
- มีข้อตกลงตั้งแต่ตอนขายกิจการ ว่า DeepMind จะเน้นงานวิจัย เพื่อเป้าหมายสุดท้ายเรื่อง AGI ตัวอย่างงานวิจัยคือการใช้ AI เล่นเกมประเภทต่างๆ (เช่น AlphaGo) และการใช้ AI ผลักดันงานวิจัยวิทยาศาสตร์ (เช่น AlphaFold) จุดเด่นของ DeepMind คือการใช้ reinforcement learning แก้ปัญหาเรื่องต่างๆ ในต่างวงการ
- ทีม AI อื่นของกูเกิล เช่น Google Brain มีความแตกต่างกันไป เน้นการทำ product มากกว่า มีความใกล้ชิดกับทีมหลักของกูเกิลมากกว่า เน้นเรื่องเอา AI ไปใช้กับ product อื่นๆ ของกูเกิล วัฒนธรรมก็ต่างกัน
Google + DeepMind
- เหตุผลที่รวมกันไม่ได้เป็นเพราะ OpenAI ChatGPT คุกคามกลายเป็นคู่แข่ง แต่มองว่า timeline เหมาะสมพอดี การมาถึงของ ChatGPT เป็นจุดเปลี่ยนของวงการ AI เข้าสู่ยุคใหม่ ซึ่งทุกคนในวงการตกใจที่มันไวรัลขนาดนี้ เพราะทุกคนมีโมเดล LLM ที่ความสามารถพอๆ กันอยู่ในแล็บ แต่พอ OpenAI ปล่อยออกมาแล้วดัง ทุกคนเลยตระหนักว่าโลกภายนอกต้องการสิ่งนี้ เทคโนโลยีพัฒนาไปมากพอจนหมดช่วงวิจัย เข้าสู่ช่วงการทำ product ให้คนใช้จริงแล้ว เริ่มใช้งานในชีวิตประจำวันได้
- การรวม Google Brain + DeepMind ไม่ได้มีใครมาสั่ง แต่ผู้บริหารสายงาน AI แต่ละทีมมานั่งคุยกันเองเรื่อยๆ อยู่แล้ว และได้ข้อสรุปว่าจำเป็นต้องรวมกัน จึงทำแผนไปเสนอ Sundar Pichai ว่าเป้าหมายคืออะไร ควรโฟกัสเรื่องไหน
- DeepMind เป็นบริษัทในเครือ Alphabet ก็จริง แต่วัฒนธรรมต่างไปจากบริษัทอื่นในเครือที่แยกขาดออกไปจากกูเกิลเลย หารายได้ของตัวเอง แต่ DeepMind ทำงานร่วมกับ product team ของกูเกิลอยู่ตลอด มีทีม applied ทำหน้าที่แปลงงานวิจัยไปใช้กับ product ของกูเกิลด้วย ซึ่งทำสำเร็จไปหลายร้อยเคสแล้วแต่คนไม่ค่อยเห็น
- การรวมกับ Google Brain ไม่ยากอย่างที่คิด เพราะทำงานใกล้ชิดกันมานาน มีวัฒนธรรมเรื่องการวิจัยคล้ายๆ กัน ตอนควบรวมลองมานั่งลิสต์ผลงาน Top 10 ของแต่ละฝั่ง แล้วพบว่านี่คือ 80-90% ของสิ่งสำคัญในโลก AI ในรอบ 10 ปีที่ผ่านมาแล้ว งานวิจัยเจ๋งๆ อยู่ที่สองทีมนี้เกือบหมด สิ่งที่ต้องทำตอนควบรวมคือมานั่งจัดระเบียบ วางเป้าหมายให้ชัดเจน (เขาบอกว่าบริษัทระดับกูเกิลก็ยัง bet มั่วซั่วไม่ได้) และปรับสิ่งที่ทำซ้ำซ้อนกันใหม่
Generative AI vs AI แบบอื่น
- มองว่า โลกตื่นเต้นกับ LLM เป็นเพราะมันคือสิ่งที่คนทั่วไปจับต้องได้ เข้าใจได้ง่าย แม้ตัวเขาตื่นเต้นกับ AlphaFold ที่ช่วยงานนักวิทยาศาสตร์ นักชีววิทยา บริษัทยา ได้มหาศาล แต่คนทั่วไปไม่รู้หรอกว่าโปรตีนคืออะไร การวิจัยยาสำคัญอย่างไร เทียบกับ AI ที่แต่งกลอนให้เราได้
- ย้ำว่าโลกเรายังมี AI ประเภทอื่นนอกเหนือจาก generative AI อีกมาก มีเรื่อง “planning and deep reinforcement learning and problem-solving and reasoning” ที่กำลังรอการพัฒนาแบบก้าวกระโดดในอีกไม่กี่ปีข้างหน้า ซึ่งเป็นภารกิจที่ Google DeepMind จะต้องทำ
อนาคตของ AI
- หากลองมาดู chatbot ในอีก 2-3 ปีข้างหน้า จะก้าวกระโดดจากปัจจุบันไปอีกมาก มันจะกลายเป็น universal personal assistant ที่ช่วยงานเราได้ทุกอย่าง
- AI แต่ละระบบจะเชื่อมต่อกัน LLM เก่งเรื่องภาษาจะทำงานเป็นหน้าฉาก อาจเขียนโค้ดหรือแก้สมการคณิตศาสตร์ได้ด้วย แต่ถ้าอยากได้งานที่เฉพาะทางกว่านั้น เช่น เล่นเกม หรือพยากรณ์โปรตีน ก็จะเรียกหา “tool” ซึ่งเป็น AI ระบบอื่นมาทำงาน แล้วส่งผลกลับมาให้ LLM แปลงเป็นภาษามนุษย์อีกที เพราะภาษาธรรมชาติเป็นอินเทอร์เฟซที่ดีที่สุด
- การไปสู่ AGI จำเป็นต้องยกระดับเรื่อง planning and memory and reasoning ถึงจะสามารถทำได้ เขาคิดว่าเราจะไปสู่ AGI ได้ในทศวรรษหน้า
- ไม่มีใครรู้เส้นทางแน่ชัด การวิจัยไม่มีเส้นตรง ไม่มีคำตอบล่วงหน้า ถ้ารู้แปลว่าไม่ใช่งานวิจัย (Research is never a straight line. If it is, then it’s not real research. If you knew the answer before you started it, then that’s not research.) จึงพยากรณ์ได้ยากว่าจะไปถึงเมื่อไร เทคนิคปัจจุบันอาจเจอกำแพงให้สเกลไม่ได้ จนต้องไปนั่งคิดหาเทคนิคใหม่ที่พาเราไปได้ไกลกว่าเดิม
Open Source
- กูเกิลทำ AI ที่เป็นโอเพนซอร์สมาเยอะ ทั้ง TensorFlow, Transformer, AlphaFold แต่กรณีของโมเดล LLM ยังไม่กล้าเปิด เพราะห่วงเรื่อง safety ถ้าเปิดออกมาอาจมีคนที่ไม่เข้าใจมันอย่างถ่องแท้ แล้วเอามาปรับแต่งใช้งาน
AI vs มนุษย์
- ยกตัวอย่าง AlphaZero ซึ่งเป็น AI เล่นเกมที่เรียนรู้ทุกอย่างได้ด้วยตัวเอง จากการลองเล่นเกมไปเรื่อยๆ แต่สุดท้ายแล้วก็ต้องไปลองแข่งกับมนุษย์จริงๆ อยู่ดี เพื่อทดสอบว่า AI ทำได้ดีแค่ไหน และ calibrate ผลกลับไปพัฒนาอัลกอริทึมให้ดีขึ้น
- การพัฒนา AI มาเป็น product ที่มนุษย์ใช้จริงๆ ถือเป็น real-world test ที่ดีที่สุด
- การมี human rater ให้คะแนน AI เป็นเรื่องสำคัญ แต่ในระยะยาวเมื่อมีการพัฒนา benchmark ของ AI ที่ดีมากพอ ความจำเป็นในการมี human rater จะลดลง เพราะไปทดสอบกับ benchmark แทน
AI & Safety
- ยกตัวอย่าง social media ว่าเรามองเป็นคุณประโยชน์มาตลอด แต่ 15 ปีให้หลังเพิ่งพบว่ามีโทษด้วย เลยไม่อยากให้ AI ซ้ำรอยนี้
- มองว่าหน่วยงานภาครัฐควรร่วมมือกันวางกรอบกติการร่วมกันในระดับนานาชาติ ตอนนี้ยังไม่เห็นภาพชัดว่าควรทำอย่างไร แต่ก็เป็นช่วงเวลาที่ต้องเริ่มพูดคุยกัน
- สิ่งที่จะพัฒนาอีกมากในอีกไม่กี่ปีข้างหน้าคือ factuality and grounding เพื่อป้องกันไม่ให้ AI แพร่ข้อมูลปลอม ซึ่ง DeepMind เคยลองทำเรื่องนี้มาแล้วในโมเดลรุ่นก่อนชื่อ Sparrow ซึ่งได้ผลจริง แต่ต้องแลกกับการเสียความสร้างสรรค์ในการตอบคำถามไปบ้าง
- เขาลองใช้ Google Search Generative Experience แล้วและพบว่ามีการมั่วอยู่บ้าง เช่น ให้แนะนำเปเปอร์วิจัยในสาขาที่สนใจ สิ่งที่ได้คือชื่อเปเปอร์ที่เหมือนดูดี เอาคำสำคัญๆ มาต่อกัน เขียนโดยนักวิจัยคนดัง แต่เป็นเปเปอร์ที่ไม่มีอยู่จริง
- กูเกิลกำลังพัฒนาเทคนิค encrypted watermarking เพื่อบอกว่าเป็นงานที่สร้างโดย AI และลบออกไม่ได้ง่ายๆ ด้วย โดยจะฝังไว้ตั้งแต่ generative process เลย