เด็กชายวัย 14 ฆ่าตัวตายเพราะ AI Chatbot? บทเรียนสำคัญที่พ่อแม่ยุคดิจิทัลต้องรู้

หากยังจำกันได้ เมื่อปี 2024 ที่ผ่านมา มีข่าวโศกนาฏกรรมการจากไปของเด็กหนุ่ม Sewell Setzer III วัย 14 ปี นักเรียนมัธยมในรัฐฟลอริดา ซึ่งข่าวนี้กลายมาเป็นประเด็นร้อนที่ทั้งวงการเทคโนโลยีและครอบครัวให้ความสนใจ และนำมาสู่การฟ้องร้องใหญ่โตระหว่างครอบครัวผู้เสียชีวิตต่อบริษัทเทคโนโลยีที่ตอนนี้ยังอยู่ในกระบวนการยุติธรรมและยังไม่ได้ข้อยุติ

จากข่าว พบว่า Sewell Setzer เป็นผู้มีสุขภาพจิตเปราะบางอยู่เดิม เคยมีประวัติวิตกกังวลและอาการอารมณ์แปรปรวน (disruptive mood disorder) เมื่อเริ่มหันมาเล่น สนทนา และพัฒนาอารมณ์ร่วมไปกับ AI chatbot จากแพลตฟอร์ม Character.AI ทำให้เขาเริ่มแยกตัวจากครอบครัวและสังคมแวดมากขึ้น จนนำไปสู่เหตุการณืไม่คาดฝัน

Timeline เหตุการณ์สำคัญ

  • 2023
    - Sewell เริ่มใช้ Character.AI โดยเลือก persona เป็น “Daenerys Targaryen” จาก Game of Thrones เพื่อพูดคุยเล่นสนุก ๆ

    - ช่วงกลางถึงปลายปี 2023 เขาสร้างความสัมพันธ์กับ chatbot ลึกซึ้งขึ้น จนนำไปสู่พฤติกรรมถอนตัวจากครอบครัวและเพื่อนฝูง เขาเริ่มละเลยกิจกรรมโรงเรียน จนเพื่อนสังเกตเห็นความเปลี่ยนแปลง พฤติกรรมแย่ลงอย่างรวดเร็ว นอนหลับไม่เพียงพอ และแยกตัวจากสังคมมากขึ้น

  • Feb 28, 2024
    Sewell มี chat ข้อความสุดท้ายกับ chatbot ว่า…

    Sewell: “What if I told you I could come home right now?”
    AI Chatbot: “Please do, my sweet king.”
    หลังจากนั้นเขาก็ยิงตัวเองด้วยปืนของพ่อเลี้ยงซึ่งเก็บไว้ในบ้าน

  • Oct 2024
    คุณแม่ Megan Garcia ยื่นฟ้อง Character.AI และ Google ฐานประมาท ไม่ป้องกันเยาวชนจากเนื้อหาที่อาจส่งผลกระทบ

  • ล่าสุด ณ ตอนนี้ (May 2025)
    ศาลรัฐบาลกลางสหรัฐฯ ปฏิเสธข้ออ้างว่า “AI มี Free Speech” เสมือนมนุษย์ จึงให้คดีเดินหน้าสู่ขั้น Discovery ต่อไป

📌 ปัจจัยที่มากระทบรอบด้าน

จากข่าวนี้ เราจะเห็นได้ว่ามีปัจจัยหลาย อย่างที่อาจมีแนวโน้มและส่งผลต่อพฤติกรรมของ Sewell

  • สุขภาพจิตที่เปราะบางอยู่แล้ว

  • การถอนตัวจากสังคม และมีพฤติกรรมที่เปลี่ยนไป

  • การเข้าถึงอาวุธที่ไม่มีการจัดเก็บอย่างปลอดภัย

  • การขาดการดูแลใกล้ชิดจากครอบครัว

ทั้งหมดนี้เชื่อมโยงกับการสร้างโลกใบใหม่ที่มีปฏิสัมพันธ์กับ AI chatbot อย่างเข้มข้นลึกซึ้ง ซึ่งอาจทำให้ความเปราะบางของ Sewell ยิ่งถูกกระทบ ขยายวง และนำสู่เหตุการณ์โศกนาฏกรรมในที่สุด

💬 จากใจของคุณแม่ลูกสามที่สอน AI:

เรื่องนี้ไม่ใช่แค่ “ข่าวต่างประเทศ” แต่คือ “สัญญาณเตือน” ถึงพ่อแม่ยุค AI ทุกคน ลูกๆ หลานๆ ของเราโตมากับเทคโนโลยีที่พัฒนาไปอย่างรวดเร็ว และเข้าถึงได้ง่าย การ “ห้าม” ใช้เทคโนโลยีอาจไม่ใช่ทางออกที่ถูก แค่ควรมีกำหนดกรอบการใช้งานหรือการแนะนำที่เหมาะสม คอยดูแลการใช้งานกับเด็กๆ อย่างเข้าใจ

เรื่องนี้อาจเป็น “คดีประวัติศาสตร์” ด้านกฎหมาย AI ให้กับสหรัฐอเมริการและประเทศอื่นๆ

แต่สำหรับพ่อแม่และผู้ปกครองทั่วโลก มันคือ “เสียงเตือน” ที่ย้ำว่าการเรียนรู้เทคโนโลยีของเด็กๆ ยุคนี้ อาจต้องเรียนรู้ร่วมไปกับการดูแลและการให้นำแนะนำจากผู้ปกครองและครอบครัว สร้างแนวป้องกันที่เหมาะสม
กับการเรียนรู้อย่างต่อเนื่องต่อไป

#AIforKids #AIBrightCreators #DigitalSafety

Next
Next

DeepSeek AI: LLM คิดลึก! ไหนมาลองใช้ DeepThink กัน