คนไทยทำได้ สร้าง AI ตรวจจับความรู้สึกจากน้ำเสียงคนได้แล้ว

คนไทยทำได้ สร้าง AI ตรวจจับความรู้สึกจากน้ำเสียงคนได้แล้ว


AI อาจเข้าใจคำพูดของเรามาสักพักแล้ว แต่การที่จะสามารถตรวจจับอารมณ์ของเราผ่านคำพูดได้ด้วยนั้นเป็นพัฒนาการที่ล้ำขึ้นไปอีกขั้น และล่าสุด เพจ Chulalongkorn University แจ้งข่าวน่าชื่นชม เมื่อคนไทยมีความสามารถไม่แพ้ชาติใดในโลก ล่าสุด คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมกันพัฒนา "ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย" ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพู เปิดให้ดาวน์โหลดฟรีแล้ว หวังเสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า ปัญญาประดิษฐ์ได้รับการพัฒนาให้เข้าใจและจำแนกอารมณ์จากเสียงและตอบสนองข้อมูลด้านความรู้สึกของมนุษย์ผู้สื่อสารได้ดียิ่งขึ้น

ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทยประกอบไปด้วย 5 อารมณ์ ได้แก่ โกรธ เศร้า สุข หงุดหงิด ปกติ นักแสดง 200 คน (ชาย 87 และหญิง 113) จำนวน 36 ชม. (23,797 ประโยค) ถือเป็นชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทยที่ใหญ่ที่สุด ณ ปัจจุบัน

โดย ผลงาน โมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Recognition Model) ปัญญาประดิษฐ์สุดล้ำโดยอาจารย์จุฬาฯ เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อาจารย์ ดร.เอกพล ช่วงสุวนิช นักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ และผู้ช่วยศาสตราจารย์ ดังกมล ณ ป้อมเพชร พร้อมด้วยอาจารย์ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปการละครจากคณะอักษรศาสตร์

ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย และโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย เปิดให้ทดลองใช้แล้ว ไม่มีค่าใช้จ่าย โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) https://airesearch.in.th/releases/speech-emotion-dataset/

คนไทยทำได้ สร้าง AI ตรวจจับความรู้สึกจากน้ำเสียงคนได้แล้ว

เครดิตแหล่งข้อมูล : Chulalongkorn University ,chula.ac.th

เรื่องที่เกี่ยวข้อง

  1. พระจอมเกล้าธนบุรีเจ๋ง ปล่อยคลังสินค้าอัจฉริยะ ควบคุมด้วยระบบIOT

  2. >> ดูทั้งหมด :เทคโนโลยีฝีมือคนไทย เจ๋งสุดๆไปเลย


เครดิต :
 

ข่าวดารา ข่าวในกระแส บน Facebook อัพเดตไว เร็วทันใจ คลิกที่นี่!!
เช็คเบอร์มือถือ คลิ๊กเลย ++
กระทู้เด็ดน่าแชร์