BCI อินเทอร์เฟสแห่งอนาคต เพียงแค่คิดก็สั่งงานได้

อู๋ spin9

อู๋ spin9 ผู้ผลิตคอนเทนต์ พิธีกร บล็อกเกอร์ และ วล็อกเกอร์ ที่หลงใหลในเทคโนโลยี การเดินทาง ยานยนต์ และ เครื่องบิน

เชื่อว่าคุณผู้อ่านทุกคน ต้องรู้จักกับการสั่งงานอุปกรณ์ ไม่ว่าจะเป็นโทรศัพท์สมาร์ทโฟน หรือ เครื่องคอมพิวเตอร์ ด้วยการใช้นิ้วสัมผัสไปที่ปุ่มที่ปรากฏบนหน้าจอ หรือการกดปุ่มเล็ก ๆ ที่มีข้อความกำกับ เพื่อให้เครื่องคอมพิวเตอร์รับรู้ว่า เราต้องการที่จะสั่งงานในคำสั่งไหนกันอย่างคุ้นเคยดีอยู่แล้ว หรือหากย้อนกลับไปอีกสักนิด เราน่าจะคุ้นเคยกับการสั่งงานเครื่องคอมพิวเตอร์ผ่านการคลิกเม้าส์ หรือการกดปุ่มต่าง ๆ บนคีย์บอร์ด เพื่อป้อนคำสั่งต่าง ๆ ที่เราต้องการ

หากพูดถึงการสั่งงานในยุค 2019 นี้ เราอาจจะนึกถึงเทคโนโลยีที่ก้าวล้ำขึ้นมาอีกขั้น นั่นคือการสั่งงานด้วยเสียง อยากให้เครื่องคอมพิวเตอร์ทำอะไร ก็แค่พูดบอกมันไป โดยเทคโนโลยีปัจจุบันสามารถทำให้เราสั่งงานด้วยเสียงได้ใกล้เคียงกับภาษามนุษย์ที่เราใช้งานกันได้อย่างเป็นธรรมชาติอย่างมากทีเดียว

การสั่งงานด้วยเสียง ได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว โดยเฉพาะในกลุ่มประเทศที่เพิ่งจะมีอัตราการเชื่อมต่ออินเทอร์เน็ตในช่วงปีที่ผ่านมา กลุ่มผู้ใช้งานใหม่ ไม่จำเป็นต้องเรียนรู้วิธีการแตะหน้าจอหรือการจัดเรียงปุ่มของแป้นพิมพ์เพื่อพิมพ์คำสั่งยาว ๆ เพราะพวกเขาสามารถเริ่มใช้งานอุปกรณ์อัจฉริยะต่าง ๆ ได้โดยการสั่งงานด้วยเสียงในภาษาที่เขาคุ้นเคยได้เลยทันที แถมยังสามารถสั่งงานได้รวดเร็วกว่าการควบคุมอุปกรณ์ในอดีตอย่างมากอีกด้วย

แล้วการสั่งงานอุปกรณ์คอมพิวเตอร์ในอนาคต จะเป็นเทคโนโลยีไหนต่อไป? คำตอบที่ค่อนข้างขัดเจนแล้วในวันนี้ คือสิ่งที่เรียกว่า BCI หรือ Brain-Computer Interface ซึ่งก็คือ การที่เราจะสั่งงานอุปกรณ์คอมพิวเตอร์ได้ เพียงแค่เราคิดเท่านั้น

BCI คืออะไร?

BCI ย่อมาจาก Brain-Computer Interface หรือการติดต่อกันโดยตรงระหว่าง คลื่นสมองของเรา กับ เครื่องคอมพิวเตอร์ครับ ซึ่งบางสำนักอาจจะเรียกมันว่า BMI (Brain-Machine Interface) ก็ได้ อย่างที่เราอาจจะเคยเห็นการใช้เครื่องอ่านคลื่นสมอง เพื่อไปควบคุมการทำงานของอะไรบางอย่าง ในภาพยนตร์ Sci-fi เช่น การใช้ความคิด ควบคุมแขนกล หรือในห้องวิจัย ก็มีการฝังเครื่องอ่านคลื่นสมอง ให้กับผู้ป่วยที่ไม่สามารถขยับแขนขาด้วยตัวเองได้ และเครื่องนี้ก็จะคาดเดาสิ่งที่ผู้ป่วยคิดจะทำ เพื่อแปลงออกมาเป็นปฏิกริยาจริง ๆ ราวกับที่เราใช้สมองเราสั่งให้แขนหรือนิ้วมือของเราขยับได้นั่นเอง

แต่คลื่นสมองก็มีข้อจำกัด

ข้อจำกัดของเทคโนโลยีนี้ เท่าที่มนุษย์สามารถค้นพบ คือสมองของเราซับซ้อนมากครับ ประกอบไปด้วยนิวรอนหรือเซลล์ประสาทประมาณ 85,000 ล้านตัว และนิวรอนแต่ละตัวมีการเชื่อมต่อไปยังนิวรอนตัวอื่น ๆ ประมาณ 10,000 การเชื่อมต่อ ถ้าวางภาพออกมา ก็คงจะยุ่งเหยิงจนไม่มีใครเข้าใจได้ แต่การอ่านคลื่นสมองของเครื่องมือที่มนุษย์คิดค้นได้ตอนนี้ ยังทำได้ในระดับผิว ๆ เท่านั้น และยิ่งหากต้องทำโดยไม่เปิดกะโหลกศีรษะ ก็ยิ่งทำให้ค่าของคลื่นไฟฟ้าที่อ่านได้ ผิดเพี้ยนไปมากพอสมควร เพราะต้องวัดค่าผ่านชั้นของหนังศีรษะลงไป จึงจะเหลือแต่ค่าของคลื่นไฟฟ้าที่มีพลังอันแข็งแกร่งมาก ๆ เท่านั้น เช่น เมื่อสมองเราตัดสินใจจะทำะไรบางอย่างที่ชัดเจนขึ้นมา เป็นต้น

แต่ในหลายสถานการณ์ คลื่นไฟฟ้าเหล่านั้นก็มากเพียงพอแล้ว ที่เราจะเอาค่าต่าง ๆ ของคลื่นสมองเราที่เครื่องจับได้ (โดยไม่ต้องเปิดกะโหลก) มาใช้ในการพัฒนาอุปกรณ์ต่างๆ ให้ฉลาดมากขึ้น และเข้าใจรูปแบบที่มนุษย์เราคิดมากขึ้นครับ มีตัวเลขบ่งบอกว่า ตั้งแต่ที่เราเริ่มจับคลื่นสมองกันมาตั้งแต่ปี 1950 เรามีความก้าวหน้าในการจับค่าของนิวรอนได้มากขึ้น 2 เท่าในทุก ๆ 7 ปี ที่ถึงแม้ว่าจะยังห่างไกลจากความก้าวหน้าทางด้านพลังคอมพิวเตอร์ที่เราทำได้เร็วขึ้น 2 เท่าในทุก ๆ 2 ปี (Moore’s Law) อยู่มากก็ตาม

ความสัมพันธ์ของ BCI และ AI

แม้การทำงานของสมองเรา หรือที่มันสะท้อนออกมาเป็นคลื่นสมองของเรา เป็นตัวบ่งบอกรูปแบบการคิด และ การตัดสินใจของมนุษย์ในแบบที่สามารถจับต้องได้แต่ว่า เรายังไม่มีอุปกรณ์ที่สามารถแปลงค่าต่าง ๆ ที่ซับซ้อนในสมองของเรา ออกมาอยู่ในรูปแบบที่เราสามารถอ่านได้อย่างชัดเจน ดังนั้น สิ่งที่เราเรียกกันว่า AI หรือ “ปัญญาประดิษฐ์” ที่มีกันมาถึงทุกวันนี้โดยส่วนมากแล้ว ยังไม่ได้เป็นสิ่งที่สะท้อนรูปแบบการคิดหรือรูปแบบการตัดสินใจที่แท้จริงจากสมองของเราเสียทีเดียวครับ แต่มันเป็นการจำลองเงื่อนไข ว่าถ้าหากเกิดสิ่งนี้ ให้ทำแบบนี้ และเรียนรู้จากรูปแบบ เพื่อทำซ้ำ หรือทำใหนสื่งที่แตกต่างไปในครั้งถัด ๆ ไปเท่านั้น

ดังนั้น ถ้าลองคิดตามว่า หากเราเอา AI มาจับกิจกรรมของคลื่นสมองโดยตรง และให้มนุษย์เป็นคนคอยบอกว่า สิ่งที่ตรวจจับออกมาได้นั้น มันใช่สิ่งที่เรากำลังคิดจะทำอยู่หรือไม่ ก็จะทำให้ AI นั้น เก่งขึ้นในรูปแบบเดียวกับที่มนุษย์คิดเลยนะครับ เช่น การเปิดตัวเทคโนโลยีที่ Brain to Vehicle (B2V) ของค่ายรถยนต์นิสสัน ได้ใช้เทคนิคนี้ มาตรวจจับคลื่นสมองของเรา และให้รถยนต์เดาสิ่งที่เรากำลังจะทำได้อย่างแม่นยำ หากรถยนต์สามารถตรวจจับได้ว่าเรากำลังจะเบรก ตัวรถก็จะเริ่มเตรียมตัวที่จะทำการเบรกให้ก่อนที่เท้าเราจะเหยียบแป้นเบรกประมาณเสี้ยววินาที ส่งผลให้ตัวรถสามารถหยุดลงได้ในระยะทางที่สั้นลงกว่าเดิม ปลอดภัยต่อทุกคนบนท้องถนนมากขึ้น โดยการที่ระบบจะทำแบบนี้ได้ ต้องผ่านการพิสูจน์จากเรามาหลายต่อหลายครั้งแล้ว ว่าคลื่นไฟฟ้าจากสมองในรูปแบบนี้ แปลว่าเรากำลังจะทำอะไร และผ่านการบอกว่าสิ่งที่ AI คาดเดานั้น มันถูกหรือมันผิด จากในห้องทดสอบมาจนเป็นที่แน่ใจแล้วว่าคลื่นไฟฟ้าที่ระบบตรวจจับได้นั้น เป็นปฏิกริยาของมนุษย์ในการคิดที่จะตัดสินใจในเรื่องนั้นจริง ๆ

หรืออย่างฟิลิปส์ ทำสายรัดศีรษะตรวจจับคลื่นสมองขณะที่เรากำลังนอนหลับ โดยจะหารูปแบบของคลื่นไฟฟ้าในสมองขณะที่เรากำลังเข้าสู่สภาวะนอนหลับลึก (deep sleep) และทำการจำลองคลื่นในช่วงนั้น ซึ่งเป็นคลื่น slow waves ปล่อยออกมาเพื่อยืดระยะเวลาที่เราสามารถนอนหลับลึกได้ โดยไม่ต้องเพิ่มระยะเวลาในการนอนหลับโดยรวม ส่งผลให้ระหว่างวันเราเหนื่อยน้อยลง ก็ถือว่าเป็นการประยุกต์เอาคลื่นสมอง มาใช้ควบคุมอุปกรณ์ได้ในรูปแบบที่น่าสนใจอีกรูปแบบนึง

Elon Musk เจ้าของ Tesla และ SpaceX ก็มองเห็นเทรนด์นี้เช่นเดียวกัน และได้ร่วมกับเพื่อนอีก 8 คน ก่อตั้งบริษัท Neuralink ขึ้นในปี 2016 เพื่อโฟกัสกับการพัฒนา BCI โดยเฉพาะ ตั้งเป้าจะทำการปลูกฝังชิปในสมอง เพื่อให้สมองมนุษย์สามารถสื่อสารกับคอมพิวเตอร์ได้โดยตรง แต่จะเริ่มใช้กับผู้ป่วยและทางการแพทย์ก่อน คาดว่าจะสามารถปลูกฝังอุปกรณ์ BCI ลงสมองผู้ป่วยได้ในปี 2021 และอุปกรณ์สำหรับบุคคลทั่วไป จะตามมาในอีก 8-10 ปีให้หลังจากนั้น

ณ วันนี้ บริษัท Neuralink ของ Elon Musk ไม่ได้บอกชัดเจน ว่าบริษัทกำลังพัฒนาอุปกรณ์อะไรกันแน่ แต่ Elon เองได้เคยให้สัมภาษณ์กับ Tim Urban เพื่อเขียนลงเว็บไซต์ Wait but Why เอาไว้ ว่า Elon มองว่า มนุษย์เราต้องการวิธีที่จะสื่อสารกับมนุษย์ด้วยกัน รวมถึงสื่อสารกับเครื่องคอมพิวเตอร์ ที่เร็วกว่าในปัจจุบัน และวิธีที่จะเป็นไปได้ คือการใช้อินเทอร์เฟซของสมอง หรือ BCI นี่แหละครับ เช่นการถ่ายทอดข้อมูลมหาศาลจากคนหนึ่งไปอีกคนหนึ่งได้อย่างรวดเร็ว หรือถ่ายทอดข้อมูลจากสมองของเรา ไปเก็บเป็นข้อมูลในระบบคลาวด์ได้อย่างรวดเร็วแบบไม่ต้องมานั่งพิมพ์ทีละตัวอักษร หรือพูดทีละประโยค … ซึ่งถ้าทำได้จริง ก็จะช่วยแก้ปัญหาหลายอย่างที่ยังไม่มีเทคโนโลยีอะไรในปัจจุบันสามารถทำได้ และก็มีแนวโน้มว่าในอนาคตจะทำได้สำเร็จเสียด้วย

Facebook ของ Mark Zuckerberg ก็เคยประกาศในงาน f8 ประจำปี 2017 ว่า Facebook ได้ทุ่มวิศวกรและนักวิจัยกว่า 60 คน ค้นคว้าในเรื่องของ BCI โดยเฉพาะ เพื่อหาวิธีสื่อสารโดยไม่ต้องใช้มือพิมพ์ แต่อ่านจากสมองออกมาด้วยอัตราความเร็ว 100 คำต่อนาที (Brain-Typing) ซึ่งมีความเร็วสูงกว่าการพิมพ์จากมือถือถึง 5 เท่าตัว

พูดถึง Facebook กับเรื่องนี้ ก็ต้องพูดถึง Dr. Mary Lou Jepsen อดีตผู้บริหาร Facebook ที่ออกมาก่อตั้งโปรเจค Openwater ค้นคว้าหาวิธีและเครื่องมือที่เราจะสามารถ “อ่าน และ เขียน” ข้อมูลในสมองได้ โดยอาจมาให้รูปแบบเดียวกับที่เครื่อง MRI (Magnetic Resonance Imaging) สามารถทำได้ในปัจจุบัน แต่จะมีความละเอียดและความแม่นยำที่สูงกว่านั้น รวมถึงจะสามารถพกพาได้ ซึ่งทุกตัวอย่างที่ว่ามานี้ ต่างมีจุดมุ่งหมายเดียวกัน คือการค้นหารูปแบบที่มนุษย์คิดในสมอง ออกมาสื่อสารเป็นข้อมูลหรือเป็นคำสั่งเพื่อควบคุมอะไรบางอย่างต่อไปตามแต่ความต้องการและความเป็นไปได้ที่มีอยู่อย่างมหาศาลบนโลกใบนี้

ความปลอดภัยที่น่ากังวล

อินเทอร์เฟซ BCI นี้ แตกต่างจากการควบคุมอุปกรณ์ในปัจจุบันค่อนข้างมาก ในแง่ของประเด็นความเป็นส่วนตัว จากการอ่านค่าจากคลื่นสมองของแต่ละคน ที่ประกอบไปด้วยข้อมูลมหาศาลที่เซนเซอร์ต่างๆ ไม่สามารถควบคุมขอบเขตของความคิดได้ เพราะมนุษย์นั้นคิดตลอดเวลา ในขณะที่อินเทอร์เฟซการสัมผัส หรือการสั่งงานด้วยเสียงนั้น สิ้นสุดคำสั่งเป็นชุดๆ ไป การอ่านคลื่นสมองเพื่อสั่งงานเปิดไฟ อาจจะได้รับข้อมูลที่เกี่ยวข้องกับความเป็นส่วนตัวเรื่องอื่น ๆ ณ เวลานั้นมาด้วย ซึ่งหากถึงวันหนึ่งที่เซนเซอร์ต่าง ๆ ได้พัฒนาไปถึงจุดที่สามารถแยกแยะประเภทของข้อมูลจากสมองของเราได้ดีมากขึ้น ก็อาจจะเกิดภัยรูปแบบใหม่ในการขโมยข้อมูลส่วนตัว หรือความลับทางการค้า จากการอ่านคลื่นสมองมนุษย์ ที่อาจยากต่อการจำกัดขอบเขตในการควบคุม ที่เหนือกว่าระบบ Biometrics ทั้งหมดในปัจจุบัน

ถึงแม้ว่าวันนี้ เราอาจจะยังไม่ได้มีอุปกรณ์ หรือ ผลิตภัณฑ์อะไรที่ใช้ประโยชน์จาก BCI อย่างเต็มที่มาให้เราได้สัมผัส หรือเป็นเจ้าของกัน รวมถึงเราอาจจะยังนึกว่า การที่เราต้องใส่อุปกรณ์ครอบศีรษะ เพื่ออ่านคลื่นสมองของเราในการที่อุปกรณ์ชิ้นนั้นจะสามารถทำอะไรได้สักอย่าง มันเป็นเรื่องที่น่าจะเกิดขึ้นเฉพาะในภาพยนตร์ และไม่มีใครอยากจะใช้งานมันในชีวิตจริง (เหมือนกับแว่น VR ที่ถึงวันนี้ก็ยังไม่ได้แจ้งเกิดอย่างที่มันควรจะเป็นสักที ก็ใครจะอยากเอาอุปกรณ์หนัก ๆ มาครอบหัวไว้ตลอดเวลากันล่ะ?) แต่อย่างน้อย ผมคิดว่าเราน่าจะได้เห็นทิศทางที่ชัดเจนพอสมควร ว่าความพยายามในการทำให้คอมพิวเตอร์ “คิด”และ “ตัดสินใจ” ในรูปแบบเดียวกับที่สมองของเราคิดและตัดสินใจนั้น มันกำลังมีความก้าวหน้ามากขึ้น ที่ผมอยากให้นึกถึงรถยนต์ขับเคลื่อนอัตโนมัติ ว่าถ้ามันสามารถคิดและตัดสินใจในรูปแบบเดียวกับที่เราทำได้ในตอนนี้ มันก็จะสามารถขับขี่ปะปนอยู่กับรถคันอื่น ๆ ที่มนุษย์เป็นผู้ควบคุมได้ สามารถให้ทาง เปลี่ยนเลน หรือใช้ทางร่วมทางแยกกับเราได้แบบไม่ติดขัด ซึ่งจะแตกต่างจากการเขียนโปรแกรมด้วยเงื่อนไข เพราะการตัดสินใจของมนุษย์ ไม่ได้ขึ้นอยู่กับเงื่อนไขบางอย่างที่เป็นแพทเทิร์น แต่มีความซับซ้อนจากปัจจัยและสถานการณ์ที่แตกต่างกันไป และนี่คือจุดเริ่มต้น ที่จะทำให้ AI เป็นไปในทิศทางที่เหมือนกับสมองของมนุษย์นั่นเอง

BCI จึงน่าจะเป็นอินเทอร์เฟซแห่งอนาคต ที่จะช่วยลดขั้นตอนและสร้างโอกาสใหม่ ๆ ให้กับอีกหลายเทคโนโลยี ที่มนุษย์ต้องพึ่งพาเทคโนโลยีในการทำให้ชีวิตของเราสะดวกสบายมากขึ้น โดยลดขั้นตอนความยุ่งยากในการสั่งงานเครื่องมือต่าง ๆ เหล่านั้นลงไป

 

เขียนโดย : อู๋ spin9

อู๋ spin9 ผู้ผลิตคอนเทนต์ พิธีกร บล็อกเกอร์ และ วล็อกเกอร์ ที่หลงใหลในเทคโนโลยี การเดินทาง ยานยนต์ และ เครื่องบิน



เนื้อหาที่เกี่ยวข้อง

1. จับตาภัยคุกคามด้าน Security ปี 2020

2. ใช้โซเชียลอย่างมีสติ ถ้าไม่อยากโดน Cyberstalking

3. ใช้ Facebook ทำธุรกิจอย่างไร ไม่ให้โดนแฮก (สำหรับ Admin เพจ)

4. มือถือหายหรือโดนขโมย ล้างข้อมูลในเครื่องยังไงดี

5. อย่าเชื่อ!! กำไรสูงความเสี่ยงต่ำไม่มีจริง – รู้ทัน “แชร์ลูกโซ่” ในโลกออนไลน์