เอไอเอส และ สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) ร่วมกันพัฒนา THAI SER แพลตฟอร์มตรวจจับความรู้สึกจากเสียงภาษาไทย (Speech Emotion Recognition) ที่ใช้เวลาเก็บข้อมูลโดยละเอียดถึง 2 ปี จนเสร็จเป็นโซลูชั่นใหม่ และเป็น Dataset ภาษาไทยชุดแรกของโลก ด้วยการพัฒนาเทคโนโลยี AI เข้าสู่กระบวน การเรียนรู้ (Deep Learning) มาประยุกต์ใช้ในการประมวลผลสัญญาณเสียง ช่วยให้เข้าใจคุณลักษณะของเสียง ขึ้นแท่นเป็น SER ที่พัฒนาจาก Dataset ที่ใหญ่เป็นอันดับที่ 3 ของโลก โดยอันดับ1 และ2 เป็นภาษาอังกฤษ ที่พัฒนามาจากชุด Dataset เสียงจาก Podcast และ YouTube ที่จะสามารถนำไปประยุกต์ใช้เพื่อเพิ่มประสิทธิภาพด้านงานบริการที่ตอบโจทย์ความต้องการของลูกค้าได้มากยิ่งขึ้น
โดยชุดข้อมูล THAI SER สามารถจำแนกเสียงได้ 5 อารมณ์ ได้แก่ โกรธ, เศร้า, สุข, หงุดหงิด และปกติ โดยมีความแม่นยำอยู่ที่ 70% และมีความพร้อมที่จะใช้งานสูงถึง 80% ส่วนอีก 20% องค์กรหรือนักพัฒนาสามารถใช้เป็นแบบจำลองพื้นฐานในการพัฒนาระบบวิเคราะห์ให้มีความแม่นยำมากขึ้น และปรับให้เข้ากับสภาพแวดล้อมการทำงานจริงขององค์กรที่มีบริบทแตกต่างกัน ซึ่งประโยชน์ของการนำ THAI SER ไปใช้งานจริง คือ
วิเคราะห์อารมณ์ของลูกค้า จาก ‘เสียงพูด’
จัดลำดับการให้บริการลูกค้า จาก ‘อารมณ์’ ของลูกค้า
มอบหมายสายลูกค้าให้กับ CSR ตามความสามารถในการรับมืออารมณ์ต่าง ๆ
ฝึกสอนและเตรียมความพร้อมให้กับ CSR ในการปฏิบัติงานจริง
ช่วยเพิ่มความสามารถในการเข้าใจสถานการณ์และเพิ่มโอกาสในการปิดการขาย
หากท่านใดสนใจ สามารถศึกษารายละเอียดเพิ่มเติม พร้อมดาวน์โหลดชุดข้อมูล THAI SER ไปพัฒนาต่อยอดได้ฟรีแล้ว ทางเว็บไซต์ https://airesearch.in.th ตั้งแต่วันนี้ เป็นต้นไป
Discussion about this post