BCI อินเทอร์เฟสแห่งอนาคต เพียงแค่คิดก็สั่งงานได้

อู๋ spin9

อู๋ spin9 ผู้ผลิตคอนเทนต์ พิธีกร บล็อกเกอร์ และ วล็อกเกอร์ ที่หลงใหลในเทคโนโลยี การเดินทาง ยานยนต์ และ เครื่องบิน

เชื่อว่าคุณผู้อ่านทุกคน ต้องรู้จักกับการสั่งงานอุปกรณ์ ไม่ว่าจะเป็นโทรศัพท์สมาร์ทโฟน หรือ เครื่องคอมพิวเตอร์ ด้วยการใช้นิ้วสัมผัสไปที่ปุ่มที่ปรากฏบนหน้าจอ หรือการกดปุ่มเล็ก ๆ ที่มีข้อความกำกับ เพื่อให้เครื่องคอมพิวเตอร์รับรู้ว่า เราต้องการที่จะสั่งงานในคำสั่งไหนกันอย่างคุ้นเคยดีอยู่แล้ว หรือหากย้อนกลับไปอีกสักนิด เราน่าจะคุ้นเคยกับการสั่งงานเครื่องคอมพิวเตอร์ผ่านการคลิกเม้าส์ หรือการกดปุ่มต่าง ๆ บนคีย์บอร์ด เพื่อป้อนคำสั่งต่าง ๆ ที่เราต้องการ

หากพูดถึงการสั่งงานในยุค 2019 นี้ เราอาจจะนึกถึงเทคโนโลยีที่ก้าวล้ำขึ้นมาอีกขั้น นั่นคือการสั่งงานด้วยเสียง อยากให้เครื่องคอมพิวเตอร์ทำอะไร ก็แค่พูดบอกมันไป โดยเทคโนโลยีปัจจุบันสามารถทำให้เราสั่งงานด้วยเสียงได้ใกล้เคียงกับภาษามนุษย์ที่เราใช้งานกันได้อย่างเป็นธรรมชาติอย่างมากทีเดียว

การสั่งงานด้วยเสียง ได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในกลุ่มประเทศที่เพิ่งจะมีอัตราการเชื่อมต่ออินเทอร์เน็ตในช่วงปีที่ผ่านมา กลุ่มผู้ใช้งานใหม่ ไม่จำเป็นต้องเรียนรู้วิธีการแตะหน้าจอหรือการจัดเรียงปุ่มของแป้นพิมพ์เพื่อพิมพ์คำสั่งยาว ๆ เพราะพวกเขาสามารถเริ่มใช้งานอุปกรณ์อัจฉริยะต่าง ๆ ได้โดยการสั่งงานด้วยเสียงในภาษาที่เขาคุ้นเคยได้เลยทันที แถมยังสามารถสั่งงานได้รวดเร็วกว่าการควบคุมอุปกรณ์ในอดีตอย่างมากอีกด้วย

แล้วการสั่งงานอุปกรณ์คอมพิวเตอร์ในอนาคต จะเป็นเทคโนโลยีไหนต่อไป? คำตอบที่ค่อนข้างขัดเจนแล้วในวันนี้ คือสิ่งที่เรียกว่า BCI หรือ Brain-Computer Interface ซึ่งก็คือ การที่เราจะสั่งงานอุปกรณ์คอมพิวเตอร์ได้ เพียงแค่เราคิดเท่านั้น

BCI คืออะไร?

BCI ย่อมาจาก Brain-Computer Interface หรือการติดต่อกันโดยตรงระหว่าง คลื่นสมองของเรา กับ เครื่องคอมพิวเตอร์ครับ ซึ่งบางสำนักอาจจะเรียกมันว่า BMI (Brain-Machine Interface) ก็ได้ อย่างที่เราอาจจะเคยเห็นการใช้เครื่องอ่านคลื่นสมอง เพื่อไปควบคุมการทำงานของอะไรบางอย่าง ในภาพยนตร์ Sci-fi เช่น การใช้ความคิด ควบคุมแขนกล หรือในห้องวิจัย ก็มีการฝังเครื่องอ่านคลื่นสมอง ให้กับผู้ป่วยที่ไม่สามารถขยับแขนขาด้วยตัวเองได้ และเครื่องนี้ก็จะคาดเดาสิ่งที่ผู้ป่วยคิดจะทำ เพื่อแปลงออกมาเป็นปฏิกริยาจริง ๆ ราวกับที่เราใช้สมองเราสั่งให้แขนหรือนิ้วมือของเราขยับได้นั่นเอง

แต่คลื่นสมองก็มีข้อจำกัด

ข้อจำกัดของเทคโนโลยีนี้ เท่าที่มนุษย์สามารถค้นพบ คือสมองของเราซับซ้อนมากครับ ประกอบไปด้วยนิวรอนหรือเซลล์ประสาทประมาณ 85,000 ล้านตัว และนิวรอนแต่ละตัวมีการเชื่อมต่อไปยังนิวรอนตัวอื่น ๆ ประมาณ 10,000 การเชื่อมต่อ ถ้าวางภาพออกมา ก็คงจะยุ่งเหยิงจนไม่มีใครเข้าใจได้ แต่การอ่านคลื่นสมองของเครื่องมือที่มนุษย์คิดค้นได้ตอนนี้ ยังทำได้ในระดับผิว ๆ เท่านั้น และยิ่งหากต้องทำโดยไม่เปิดกะโหลกศีรษะ ก็ยิ่งทำให้ค่าของคลื่นไฟฟ้าที่อ่านได้ ผิดเพี้ยนไปมากพอสมควร เพราะต้องวัดค่าผ่านชั้นของหนังศีรษะลงไป จึงจะเหลือแต่ค่าของคลื่นไฟฟ้าที่มีพลังอันแข็งแกร่งมาก ๆ เท่านั้น เช่น เมื่อสมองเราตัดสินใจจะทำะไรบางอย่างที่ชัดเจนขึ้นมา เป็นต้น

แต่ในหลายสถานการณ์ คลื่นไฟฟ้าเหล่านั้นก็มากเพียงพอแล้ว ที่เราจะเอาค่าต่าง ๆ ของคลื่นสมองเราที่เครื่องจับได้ (โดยไม่ต้องเปิดกะโหลก) มาใช้ในการพัฒนาอุปกรณ์ต่างๆ ให้ฉลาดมากขึ้น และเข้าใจรูปแบบที่มนุษย์เราคิดมากขึ้นครับ มีตัวเลขบ่งบอกว่า ตั้งแต่ที่เราเริ่มจับคลื่นสมองกันมาตั้งแต่ปี 1950 เรามีความก้าวหน้าในการจับค่าของนิวรอนได้มากขึ้น 2 เท่าในทุก ๆ 7 ปี ที่ถึงแม้ว่าจะยังห่างไกลจากความก้าวหน้าทางด้านพลังคอมพิวเตอร์ที่เราทำได้เร็วขึ้น 2 เท่าในทุก ๆ 2 ปี (Moore’s Law) อยู่มากก็ตาม

ความสัมพันธ์ของ BCI และ AI

แม้การทำงานของสมองเรา หรือที่มันสะท้อนออกมาเป็นคลื่นสมองของเรา เป็นตัวบ่งบอกรูปแบบการคิด และ การตัดสินใจของมนุษย์ในแบบที่สามารถจับต้องได้แต่ว่า เรายังไม่มีอุปกรณ์ที่สามารถแปลงค่าต่าง ๆ ที่ซับซ้อนในสมองของเรา ออกมาอยู่ในรูปแบบที่เราสามารถอ่านได้อย่างชัดเจน ดังนั้น สิ่งที่เราเรียกกันว่า AI หรือ “ปัญญาประดิษฐ์” ที่มีกันมาถึงทุกวันนี้โดยส่วนมากแล้ว ยังไม่ได้เป็นสิ่งที่สะท้อนรูปแบบการคิดหรือรูปแบบการตัดสินใจที่แท้จริงจากสมองของเราเสียทีเดียวครับ แต่มันเป็นการจำลองเงื่อนไข ว่าถ้าหากเกิดสิ่งนี้ ให้ทำแบบนี้ และเรียนรู้จากรูปแบบ เพื่อทำซ้ำ หรือทำใหนสื่งที่แตกต่างไปในครั้งถัด ๆ ไปเท่านั้น

ดังนั้น ถ้าลองคิดตามว่า หากเราเอา AI มาจับกิจกรรมของคลื่นสมองโดยตรง และให้มนุษย์เป็นคนคอยบอกว่า สิ่งที่ตรวจจับออกมาได้นั้น มันใช่สิ่งที่เรากำลังคิดจะทำอยู่หรือไม่ ก็จะทำให้ AI นั้น เก่งขึ้นในรูปแบบเดียวกับที่มนุษย์คิดเลยนะครับ เช่น การเปิดตัวเทคโนโลยีที่ Brain to Vehicle (B2V) ของค่ายรถยนต์นิสสัน ได้ใช้เทคนิคนี้ มาตรวจจับคลื่นสมองของเรา และให้รถยนต์เดาสิ่งที่เรากำลังจะทำได้อย่างแม่นยำ หากรถยนต์สามารถตรวจจับได้ว่าเรากำลังจะเบรก ตัวรถก็จะเริ่มเตรียมตัวที่จะทำการเบรกให้ก่อนที่เท้าเราจะเหยียบแป้นเบรกประมาณเสี้ยววินาที ส่งผลให้ตัวรถสามารถหยุดลงได้ในระยะทางที่สั้นลงกว่าเดิม ปลอดภัยต่อทุกคนบนท้องถนนมากขึ้น โดยการที่ระบบจะทำแบบนี้ได้ ต้องผ่านการพิสูจน์จากเรามาหลายต่อหลายครั้งแล้ว ว่าคลื่นไฟฟ้าจากสมองในรูปแบบนี้ แปลว่าเรากำลังจะทำอะไร และผ่านการบอกว่าสิ่งที่ AI คาดเดานั้น มันถูกหรือมันผิด จากในห้องทดสอบมาจนเป็นที่แน่ใจแล้วว่าคลื่นไฟฟ้าที่ระบบตรวจจับได้นั้น เป็นปฏิกริยาของมนุษย์ในการคิดที่จะตัดสินใจในเรื่องนั้นจริง ๆ

หรืออย่างฟิลิปส์ ทำสายรัดศีรษะตรวจจับคลื่นสมองขณะที่เรากำลังนอนหลับ โดยจะหารูปแบบของคลื่นไฟฟ้าในสมองขณะที่เรากำลังเข้าสู่สภาวะนอนหลับลึก (deep sleep) และทำการจำลองคลื่นในช่วงนั้น ซึ่งเป็นคลื่น slow waves ปล่อยออกมาเพื่อยืดระยะเวลาที่เราสามารถนอนหลับลึกได้ โดยไม่ต้องเพิ่มระยะเวลาในการนอนหลับโดยรวม ส่งผลให้ระหว่างวันเราเหนื่อยน้อยลง ก็ถือว่าเป็นการประยุกต์เอาคลื่นสมอง มาใช้ควบคุมอุปกรณ์ได้ในรูปแบบที่น่าสนใจอีกรูปแบบนึง

Elon Musk เจ้าของ Tesla และ SpaceX ก็มองเห็นเทรนด์นี้เช่นเดียวกัน และได้ร่วมกับเพื่อนอีก 8 คน ก่อตั้งบริษัท Neuralink ขึ้นในปี 2016 เพื่อโฟกัสกับการพัฒนา BCI โดยเฉพาะ ตั้งเป้าจะทำการปลูกฝังชิปในสมอง เพื่อให้สมองมนุษย์สามารถสื่อสารกับคอมพิวเตอร์ได้โดยตรง แต่จะเริ่มใช้กับผู้ป่วยและทางการแพทย์ก่อน คาดว่าจะสามารถปลูกฝังอุปกรณ์ BCI ลงสมองผู้ป่วยได้ในปี 2021 และอุปกรณ์สำหรับบุคคลทั่วไป จะตามมาในอีก 8-10 ปีให้หลังจากนั้น

ณ วันนี้ บริษัท Neuralink ของ Elon Musk ไม่ได้บอกชัดเจน ว่าบริษัทกำลังพัฒนาอุปกรณ์อะไรกันแน่ แต่ Elon เองได้เคยให้สัมภาษณ์กับ Tim Urban เพื่อเขียนลงเว็บไซต์ Wait but Why เอาไว้ ว่า Elon มองว่า มนุษย์เราต้องการวิธีที่จะสื่อสารกับมนุษย์ด้วยกัน รวมถึงสื่อสารกับเครื่องคอมพิวเตอร์ ที่เร็วกว่าในปัจจุบัน และวิธีที่จะเป็นไปได้ คือการใช้อินเทอร์เฟซของสมอง หรือ BCI นี่แหละครับ เช่นการถ่ายทอดข้อมูลมหาศาลจากคนหนึ่งไปอีกคนหนึ่งได้อย่างรวดเร็ว หรือถ่ายทอดข้อมูลจากสมองของเรา ไปเก็บเป็นข้อมูลในระบบคลาวด์ได้อย่างรวดเร็วแบบไม่ต้องมานั่งพิมพ์ทีละตัวอักษร หรือพูดทีละประโยค … ซึ่งถ้าทำได้จริง ก็จะช่วยแก้ปัญหาหลายอย่างที่ยังไม่มีเทคโนโลยีอะไรในปัจจุบันสามารถทำได้ และก็มีแนวโน้มว่าในอนาคตจะทำได้สำเร็จเสียด้วย

Facebook ของ Mark Zuckerberg ก็เคยประกาศในงาน f8 ประจำปี 2017 ว่า Facebook ได้ทุ่มวิศวกรและนักวิจัยกว่า 60 คน ค้นคว้าในเรื่องของ BCI โดยเฉพาะ เพื่อหาวิธีสื่อสารโดยไม่ต้องใช้มือพิมพ์ แต่อ่านจากสมองออกมาด้วยอัตราความเร็ว 100 คำต่อนาที (Brain-Typing) ซึ่งมีความเร็วสูงกว่าการพิมพ์จากมือถือถึง 5 เท่าตัว

พูดถึง Facebook กับเรื่องนี้ ก็ต้องพูดถึง Dr. Mary Lou Jepsen อดีตผู้บริหาร Facebook ที่ออกมาก่อตั้งโปรเจค Openwater ค้นคว้าหาวิธีและเครื่องมือที่เราจะสามารถ “อ่าน และ เขียน” ข้อมูลในสมองได้ โดยอาจมาให้รูปแบบเดียวกับที่เครื่อง MRI (Magnetic Resonance Imaging) สามารถทำได้ในปัจจุบัน แต่จะมีความละเอียดและความแม่นยำที่สูงกว่านั้น รวมถึงจะสามารถพกพาได้ ซึ่งทุกตัวอย่างที่ว่ามานี้ ต่างมีจุดมุ่งหมายเดียวกัน คือการค้นหารูปแบบที่มนุษย์คิดในสมอง ออกมาสื่อสารเป็นข้อมูลหรือเป็นคำสั่งเพื่อควบคุมอะไรบางอย่างต่อไปตามแต่ความต้องการและความเป็นไปได้ที่มีอยู่อย่างมหาศาลบนโลกใบนี้

ความปลอดภัยที่น่ากังวล

อินเทอร์เฟซ BCI นี้ แตกต่างจากการควบคุมอุปกรณ์ในปัจจุบันค่อนข้างมาก ในแง่ของประเด็นความเป็นส่วนตัว จากการอ่านค่าจากคลื่นสมองของแต่ละคน ที่ประกอบไปด้วยข้อมูลมหาศาลที่เซนเซอร์ต่างๆ ไม่สามารถควบคุมขอบเขตของความคิดได้ เพราะมนุษย์นั้นคิดตลอดเวลา ในขณะที่อินเทอร์เฟซการสัมผัส หรือการสั่งงานด้วยเสียงนั้น สิ้นสุดคำสั่งเป็นชุดๆ ไป การอ่านคลื่นสมองเพื่อสั่งงานเปิดไฟ อาจจะได้รับข้อมูลที่เกี่ยวข้องกับความเป็นส่วนตัวเรื่องอื่น ๆ ณ เวลานั้นมาด้วย ซึ่งหากถึงวันหนึ่งที่เซนเซอร์ต่าง ๆ ได้พัฒนาไปถึงจุดที่สามารถแยกแยะประเภทของข้อมูลจากสมองของเราได้ดีมากขึ้น ก็อาจจะเกิดภัยรูปแบบใหม่ในการขโมยข้อมูลส่วนตัว หรือความลับทางการค้า จากการอ่านคลื่นสมองมนุษย์ ที่อาจยากต่อการจำกัดขอบเขตในการควบคุม ที่เหนือกว่าระบบ Biometrics ทั้งหมดในปัจจุบัน

ถึงแม้ว่าวันนี้ เราอาจจะยังไม่ได้มีอุปกรณ์ หรือ ผลิตภัณฑ์อะไรที่ใช้ประโยชน์จาก BCI อย่างเต็มที่มาให้เราได้สัมผัส หรือเป็นเจ้าของกัน รวมถึงเราอาจจะยังนึกว่า การที่เราต้องใส่อุปกรณ์ครอบศีรษะ เพื่ออ่านคลื่นสมองของเราในการที่อุปกรณ์ชิ้นนั้นจะสามารถทำอะไรได้สักอย่าง มันเป็นเรื่องที่น่าจะเกิดขึ้นเฉพาะในภาพยนตร์ และไม่มีใครอยากจะใช้งานมันในชีวิตจริง (เหมือนกับแว่น VR ที่ถึงวันนี้ก็ยังไม่ได้แจ้งเกิดอย่างที่มันควรจะเป็นสักที ก็ใครจะอยากเอาอุปกรณ์หนัก ๆ มาครอบหัวไว้ตลอดเวลากันล่ะ?) แต่อย่างน้อย ผมคิดว่าเราน่าจะได้เห็นทิศทางที่ชัดเจนพอสมควร ว่าความพยายามในการทำให้คอมพิวเตอร์ “คิด”และ “ตัดสินใจ” ในรูปแบบเดียวกับที่สมองของเราคิดและตัดสินใจนั้น มันกำลังมีความก้าวหน้ามากขึ้น ที่ผมอยากให้นึกถึงรถยนต์ขับเคลื่อนอัตโนมัติ ว่าถ้ามันสามารถคิดและตัดสินใจในรูปแบบเดียวกับที่เราทำได้ในตอนนี้ มันก็จะสามารถขับขี่ปะปนอยู่กับรถคันอื่น ๆ ที่มนุษย์เป็นผู้ควบคุมได้ สามารถให้ทาง เปลี่ยนเลน หรือใช้ทางร่วมทางแยกกับเราได้แบบไม่ติดขัด ซึ่งจะแตกต่างจากการเขียนโปรแกรมด้วยเงื่อนไข เพราะการตัดสินใจของมนุษย์ ไม่ได้ขึ้นอยู่กับเงื่อนไขบางอย่างที่เป็นแพทเทิร์น แต่มีความซับซ้อนจากปัจจัยและสถานการณ์ที่แตกต่างกันไป และนี่คือจุดเริ่มต้น ที่จะทำให้ AI เป็นไปในทิศทางที่เหมือนกับสมองของมนุษย์นั่นเอง

BCI จึงน่าจะเป็นอินเทอร์เฟซแห่งอนาคต ที่จะช่วยลดขั้นตอนและสร้างโอกาสใหม่ ๆ ให้กับอีกหลายเทคโนโลยี ที่มนุษย์ต้องพึ่งพาเทคโนโลยีในการทำให้ชีวิตของเราสะดวกสบายมากขึ้น โดยลดขั้นตอนความยุ่งยากในการสั่งงานเครื่องมือต่าง ๆ เหล่านั้นลงไป

 

เขียนโดย : อู๋ spin9

อู๋ spin9 ผู้ผลิตคอนเทนต์ พิธีกร บล็อกเกอร์ และ วล็อกเกอร์ ที่หลงใหลในเทคโนโลยี การเดินทาง ยานยนต์ และ เครื่องบิน



เนื้อหาที่เกี่ยวข้อง

1. 9 ขั้นตอนการเลือกซื้ออุปกรณ์ Firewall

2. บัญชี Router และ IoT รั่วไหลกว่า 500,000 รายการ

3. ข้อมูลไม่หาย ไฟล์ยังอยู่ แค่หมั่น Backup

4. ตั้งเป้า 6 ข้อ เพื่อใช้งานไอทีให้ปลอดภัย

5. ภัยคุกคามทางไซเบอร์ มุ่งเป้าธุรกิจ esports