คนไทยทำได้ สร้าง AI ตรวจจับความรู้สึกจากน้ำเสียงคนได้แล้ว
AI อาจเข้าใจคำพูดของเรามาสักพักแล้ว แต่การที่จะสามารถตรวจจับอารมณ์ของเราผ่านคำพูดได้ด้วยนั้นเป็นพัฒนาการที่ล้ำขึ้นไปอีกขั้น และล่าสุด เพจ Chulalongkorn University แจ้งข่าวน่าชื่นชม เมื่อคนไทยมีความสามารถไม่แพ้ชาติใดในโลก ล่าสุด คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมกันพัฒนา "ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย" ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพูด เปิดให้ดาวน์โหลดฟรีแล้ว หวังเสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า ปัญญาประดิษฐ์ได้รับการพัฒนาให้เข้าใจและจำแนกอารมณ์จากเสียงและตอบสนองข้อมูลด้านความรู้สึกของมนุษย์ผู้สื่อสารได้ดียิ่งขึ้น
ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทยประกอบไปด้วย 5 อารมณ์ ได้แก่ โกรธ เศร้า สุข หงุดหงิด ปกติ นักแสดง 200 คน (ชาย 87 และหญิง 113) จำนวน 36 ชม. (23,797 ประโยค) ถือเป็นชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทยที่ใหญ่ที่สุด ณ ปัจจุบัน
โดย ผลงาน โมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Recognition Model) ปัญญาประดิษฐ์สุดล้ำโดยอาจารย์จุฬาฯ เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อาจารย์ ดร.เอกพล ช่วงสุวนิช นักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ และผู้ช่วยศาสตราจารย์ ดังกมล ณ ป้อมเพชร พร้อมด้วยอาจารย์ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปการละครจากคณะอักษรศาสตร์
ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย และโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย เปิดให้ทดลองใช้แล้ว ไม่มีค่าใช้จ่าย โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) https://airesearch.in.th/releases/speech-emotion-dataset/
เครดิตแหล่งข้อมูล : Chulalongkorn University ,chula.ac.th
เรื่องที่เกี่ยวข้อง
- พระจอมเกล้าธนบุรีเจ๋ง ปล่อยคลังสินค้าอัจฉริยะ ควบคุมด้วยระบบIOT
>> ดูทั้งหมด :เทคโนโลยีฝีมือคนไทย เจ๋งสุดๆไปเลย