Thành tựu này được kỳ vọng sẽ mở ra kỷ nguyên mới cho các tương tác đồng cảm giữa người và máy, đặc biệt trong các lĩnh vực như chăm sóc sức khỏe tâm thần, dịch vụ khách hàng và giáo dục.

Khác với các kỹ thuật truyền thống vốn chỉ dựa vào phân tích một biểu cảm khuôn mặt tại một thời điểm, nhóm nghiên cứu ECU đã huấn luyện AI bằng cách trình chiếu các chuỗi biểu cảm có liên quan – tương tự như cách con người quan sát cảm xúc trong một bối cảnh liên tục. Điều này giúp hệ thống AI hiểu sâu hơn về trạng thái cảm xúc thực sự của con người, kể cả khi khuôn mặt xuất hiện ở nhiều góc độ hoặc dưới ánh sáng khác nhau.
Nghiên cứu sinh Sharjeel Tahir – tác giả chính của nghiên cứu – lý giải: “Cũng như con người không thể đánh giá cảm xúc chỉ sau một ánh nhìn, hệ thống AI của chúng tôi cần nhiều dữ kiện để đưa ra nhận định chính xác.” Cách tiếp cận mới này giúp tăng tính tin cậy và khả năng thích ứng của AI trong môi trường thực tế.
Tiến sĩ Nima Mirnateghi, đồng tác giả nghiên cứu, nhấn mạnh rằng việc đào tạo AI với các tín hiệu thị giác đa dạng giúp công nghệ duy trì hiệu quả và nâng cao độ chính xác theo thời gian.

Hiện tại, nhóm nghiên cứu đang hướng tới mục tiêu xây dựng “sự đồng cảm nhân tạo”, cho phép các hệ thống AI phản hồi phù hợp với cảm xúc con người – từ đó hỗ trợ quá trình ra quyết định một cách minh bạch và dễ hiểu hơn.
Theo giảng viên cao cấp Syed Afaq Shah – trưởng nhóm nghiên cứu, công trình này đang đặt nền móng cho thế hệ máy móc có thể thực sự hiểu và tương tác cảm xúc với con người, thay vì chỉ phản hồi dựa trên dữ liệu lạnh lùng như trước kia.
(nguồn: tintuc)