คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมพัฒนา "ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย" ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพูด เปิดให้ดาวน์โหลดฟรี หวังเสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า
เทคโนโลยีด้านเสียงก้าวขึ้นไปอีกขั้น จากเดิมที่เราคุ้นเคยกับการใช้เสียงพูดเพื่อป้อนข้อมูลหรือออกคำสั่งกับหุ่นยนต์ปัญญาประดิษฐ์ บังคับการทำงานของอุปกรณ์ภายในรถยนต์หรือระบบบ้านอัจฉริยะ โปรแกรมแปลภาษาหรือถอดคำพูดเป็นตัวอักษรโดยใช้เสียง ฯลฯ ตอนนี้ปัญญาประดิษฐ์ได้รับการพัฒนาให้เข้าใจและจำแนกอารมณ์จากเสียงและตอบสนองข้อมูลด้านความรู้สึกของมนุษย์ผู้สื่อสารได้ดียิ่งขึ้น
โมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Recognition Model)ปัญญาประดิษฐ์สุดล้ำโดยอาจารย์จุฬาฯ ที่เปิดให้ผู้สนใจดาวน์โหลดเพื่อใช้งานแล้ววันนี้ เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อ.ดร.เอกพล ช่วงสุวนิช นักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ จุฬาฯ และ ผศ.ดังกมล ณ ป้อมเพชร พร้อมด้วย อ.ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปะการละครจากคณะอักษรศาสตร์ จุฬาฯ
"การสร้างปัญญาประดิษฐ์ที่สามารถตีความอารมณ์จากเสียงพูดได้นั้นนำไปพัฒนาต่อยอดได้หลายทาง เช่น ระบบคอลเซ็นเตอร์ที่สามารถประเมินอารมณ์ลูกค้าที่โทรศัพท์เข้ามารับบริการว่ามีอารมณ์เช่นไร โกรธหรือหงุดหงิด แล้วบันทึกความรู้สึกจากน้ำเสียงตลอดการพูดคุยเป็นสถิติได้ว่ามีลูกค้าที่ไม่พอใจการให้บริการจำนวนเท่าใด หรือสร้างเป็นระบบปัญญาประดิษฐ์ที่สามารถแสดงอารมณ์ขณะการสื่อสารกับผู้ใช้ ได้อย่างเป็นธรรมชาติมากขึ้น แทนที่จะพูดด้วยน้ำเสียงเรียบๆ แบบโมโนโทนที่เราคุ้นเคย" อ.ดร.เอกพล เผยเป้าหมายการพัฒนาผลงานซึ่งพัฒนาร่วมกับสถาบันวิทยสิริเมธี (VISTEC) และได้รับการสนับสนุนงบประมาณจากสำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa) และบริษัท แอดวานซ์ อิน โฟร์ เซอร์วิส (AIS)
คลังข้อมูลเสียงหลากอารมณ์จากนักแสดง
ก่อนจะทำโมเดลจำแนกอารมณ์ จำเป็นต้องมีคลังข้อมูลเสียงเสียก่อน และตรงนี้เองที่ศาสตร์การละครเข้ามาช่วยได้เป็นอย่างดีในการทำชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Dataset)
นักแสดงจำนวน 200 คน ทั้งหญิงและชายเป็นต้นเสียงสื่ออารมณ์ 5 แบบ ได้แก่ อารมณ์โกรธ เศร้า หงุดหงิด สุข และน้ำเสียงยามปกติ โดยนักแสดงแต่ละคนจะบันทึกเสียงที่แสดงอารมณ์ทั้ง 5 อารมณ์ แบบ พูดเดี่ยว และแบบโต้ตอบเป็นบทสนทนา
"เสียงที่นำไปใช้งานได้จะต้องเป็นเสียงที่แสดงอารมณ์จริงเหมือนที่เกิดขึ้นในชีวิตประจำวันของเรา ไม่ใช่การใช้เสียงที่ล้นเกินกว่าอารมณ์ในความเป็นจริง ดังนั้นจึงต้องมีทีมกำกับการแสดงช่วยแนะนำเพื่อให้นักแสดงรู้สึกตามอารมณ์นั้นๆ อย่างแท้จริง" ผศ.ดังกมล เล่ารายละเอียดการบันทึกเสียงเพื่อทำชุดข้อมูล
"นอกจากนี้เมื่อต้องเปลี่ยนเสียงสำหรับบันทึกอารมณ์อีกแบบ แต่อารมณ์ของนักแสดงบางคนยังคง ติดค้างกับอารมณ์เดิมอยู่ ฝ่ายกำกับการแสดงจะทำหน้าที่กำกับอารมณ์ใหม่กระทั่งนักแสดงสื่ออารมณ์นั้นออกมาในน้ำเสียงดูสมจริงที่สุด"
จากน้ำเสียงนักแสดง สู่โมเดลจำแนกเสียงสารพัดอารมณ์
หลังจากเก็บบันทึกเสียงนักแสดงทั้งหมดไว้แล้ว ชุดข้อมูลเสียงจะถูกนำไปสร้างเป็นรูปแบบเสียงของอารมณ์ทั้ง 5 ประเภท เพื่อนำไปพัฒนาเป็นโมเดลจำแนกอารมณ์จากเสียงพูด ซึ่ง อ.ดร.เอกพล นักวิชาการด้านวิศวกรรมคอมพิวเตอร์กล่าวว่ามีความแม่นยำถึง 60-70%
"เรารับรู้อารมณ์ของผู้พูดโดยสังเกตจากองค์ประกอบของเสียงพูด ทั้งน้ำเสียง ความดังของเสียง จังหวะการพูด เสียงสะอื้น เสียงหัวเราะ ปัญญาประดิษฐ์ก็มีลักษณะการทำงานที่คล้ายๆ กันกับการรับรู้อารมณ์ของเรา" อ.ดร.เอกพลอธิบาย
"ปัญญาประดิษฐ์มีหน้าที่แยกเสียงพูดที่ป้อนเข้าไปว่าตรงกับความรู้สึกใด โดยเทียบเคียงกับน้ำเสียงมาตรฐานแต่ละอารมณ์ พอปัญญาประดิษฐ์ได้เรียนรู้จากชุดข้อมูลที่ป้อนให้ ก็จะจับรูปแบบได้ เสียงเศร้า มีระดับเสียงค่อนข้างเบากว่าน้ำเสียงปกติ เสียงมีความสุขก็จะมีเสียงหัวเราะปนอยู่ ขณะที่เสียงโกรธก็จะมีระดับเสียงดังกว่าปกติ"
AI จำแนกอารมณ์ ต่อยอดอย่างไรได้บ้าง
อ.ดร.เอกพล ชี้โอกาสการนำโมเดลจำแนกอารมณ์จากเสียงพูดไปใช้ในหลายประเภทงานตาม แต่จินตนาการของผู้ใช้ว่าต้องการเข้าถึงอารมณ์ผู้พูดเพื่ออะไร
"การนำไปใช้งานไม่จำกัดว่าจะต้องเป็นคนทำงานด้านคอมพิวเตอร์เท่านั้น ต้องมองว่าผู้ใช้อยากเอาการประเมินอารมณ์ไปใช้ทำอะไร เช่น เอาไปใช้ใน call center เพื่อประเมินอารมณ์ลูกค้าที่โทรเข้ามาแล้วอารมณ์เสีย อารมณ์เสียเรื่องอะไรมากที่สุด แล้วก็ไปดูว่าคนที่อารมณ์เสียพูดถึงอะไร หรือนำไปพัฒนาทำให้ อวาตาร์หรือหุ่นยนต์ปัญญาประดิษฐ์ที่เป็นหน้าคนขยับปากพูดได้ ก็ทำให้มีสีหน้าและแสดงอารมณ์ออกมาตอบสนองให้เข้ากับผู้ใช้งานก็ได้"
นอกจากนั้น อ.ดร.เอกพล ยังกล่าวอีกว่า ปัญญาประดิษฐ์แยกอารมณ์จากเสียงยังเป็นประโยชน์ในงานสายด่วนต่างๆ โดยเฉพาะสายด่วนสุขภาพจิต
"ในอนาคต เรามีแผนที่จะพัฒนาเพื่อไปใช้กับสายด่วนสุขภาพจิตกับผู้ป่วยที่มีภาวะซึมเศร้า และนำไปพัฒนาเพื่อให้หุ่นยนต์สามารถตอบสนองทางอารมณ์กับมนุษย์ได้"
โมเดลในอนาคต เพิ่มความหลากหลายทั้งเสียงและอารมณ์
แน่นอน อารมณ์ 5 แบบในฐานข้อมูลย่อมไม่มากและหลากหลายพอต่อการตรวจวัดอุณหภูมิความรู้สึกของมนุษย์ อีกทั้งแต่ละเพศวัยก็แสดงอารมณ์แต่ละแบบแตกต่างกัน โจทย์ใหม่ที่คณะนักวิจัยกำลังเตรียมขยายผลคือการพัฒนาประสิทธิภาพของระบบให้รายงานผลอารมณ์ด้วยความแม่นยำ ครอบคลุมคน ทุกเพศทุกวัย
"ตอนนี้มีแผนที่จะพัฒนาโมเดลปัจจุบันเพื่อให้ใช้งานได้อย่างมีประสิทธิภาพและครอบคลุมกลุ่มคนมากขึ้น เนื่องจากนักแสดงที่มาบันทึกเสียงส่วนใหญ่จะเป็นนิสิตและวัยทำงาน โมเดลจึงอาจจะทำงานไม่ดีหากนำเสียงพูดเด็กและผู้สูงอายุมาใช้ และเนื่องจากทำการบันทึกเสียงในห้องอัด โมเดลจึงอาจจะทำงานได้ไม่ดีเท่าที่ควรในกรณีที่มีเสียงรอบข้างรบกวน" อ.ดร.เอกพล กล่าว
ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย และโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทยเปิดให้ทดลองใช้ฟรีแล้ว โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AI Research) https://airesearch.in.th/releases/speech-emotion-dataset/
เอ็กซ์เผิง ผู้นำธุรกิจไฮ-เทคสมาร์ทโมบิลิตี้ เปิดตัวกลยุทธ์ AI Tech Tree หรือโครงข่ายการพัฒนาปัญญาประดิษฐ์แบบต่างๆ ที่ผ่านการอัปเกรดใหม่ โดยมีเป้าหมายเพื่อยกระดับ การเดินทางในอนาคต ผ่านการหลอมรวมเทคโนโลยี AI การบริหารพลังงานอย่างมีประสิทธิภาพ และปัญญาประดิษฐ์ที่ฝังอยู่ในตัว รวมถึงการกำหนดรากฐานระบบนิเวศในอนาคต สำหรับยานยนต์ไฟฟ้าอัจฉริยะหุ่นยนต์ฮิวแมนอยด์ และพาหนะบินได้ มร. เหอ เสี่ยวเผิง ประธานและซีอีโอของ เอ็กซ์เผิง กล่าวว่า "ไม่มีใครสามารถหยุดยั้งคลื่นแห่งความก้าวหน้านี้ได้ ปัจจุบัน AI
PwC คาด AI agent จะพลิกโฉมธุรกิจและการจ้างงานในอีก 12 ถึง 24 เดือนข้างหน้า
—
PwC ประเทศไทย คาด 'AI agent' จะถูกนำมาใช้งานในธุรกิจไทยมากขึ้น หลังช่วยเพิ่มผ...
SO เดินเกมรุก ปักธง New S-Curve ดันโซลูชัน Workforce ผสาน AI เจาะตลาดพรีเมียม ตอกย้ำฐานะการเงินแกร่ง จ่ายปันผล 85% ของกำไร
—
บมจ.สยามราชธานี หรือ SO เดินห...
โครงการสัมมนาวิชาการ AI & Cyber Intelligence: The Future of Human-Machine Collaboration & Security
—
คณะเทคโนโลยีสารสนเทศและการสื่อสาร มหาวิทยาลัย...
ฟอร์ติเน็ต หนุนโครงการบัณฑิตพันธุ์ใหม่ อบรมฟรี "ปัญญาประดิษฐ์สำหรับความมั่นคงปลอดภัยไซเบอร์" มอบใบเซอร์นักศึกษาและบุคคลทั่วไป
—
ฟอร์ติเน็ตให้การสนับสนุนหล...
ทีทีบี ขับเคลื่อนดิจิทัลด้วย Data และ AI ทรานส์ฟอร์มสู่ Hyper-Personalization มุ่งยกระดับประสบการณ์ทางการเงินให้ลูกค้ามีชีวิตการเงินที่ดีขึ้นอย่างแท้จริง
—
ทีเอ็มบีธนช...
เทคโนโลยีเอไอ VS ภัยพิบัติ เอไอเข้ามามีบทบาทได้มากน้อยแค่ไหนในปัจจุบัน
—
ภัยพิบัติทางธรรมชาติเป็นหนึ่งในความท้าทายที่ยิ่งใหญ่ของมนุษยชาติ ตั้งแต่ไฟป่า แผ่...
คณะเทคโนโลยีสารสนเทศ SPU จับมือ BDI เปิดหลักสูตร 'Intermediate Data Science' รุ่น 1 อัปสกิลสู่มืออาชีพด้านวิเคราะห์ข้อมูล
—
คณะเทคโนโลยีสารสนเทศ มหาวิทยาล...
PathSense นวัตกรรม AI เพื่อผู้พิการทางสายตาจากนักศึกษา CMKL คว้ารางวัลชนะเลิศการแข่งขัน AIS Jump Hackathon 2025
—
ทีมนักศึกษาชั้นปีที่ 2 จากหลักสูตร วศ.บ....