Facebook đang nỗ lực dạy chatbot "trò chuyện"
Mang tiếng là chatbot nhưng chúng lại không hề biết "tâm sự" với con người chúng ta. Và gã khổng lồ mạng xã hội này đang lên kế hoạch để thay đổi điều đó.
Mặc dù trợ lý ảo AI mang tên M của Facebook đã bị “khai tử”, thế nhưng gã khổng lồ mạng xã hội này vẫn chưa từ bỏ tham vọng về những con chatbot. Trong vài năm trở lại đây, nó đã dần dần cải thiện, tiến bộ hơn thời điểm mới được trình làng rất nhiều. Mặc dù vậy, thử thách sắp tới mà nó phải đạp đổ chính là thứ mà đến cả con người thông minh nhất cũng phải chật vật: nói chuyện phiếm.
Mặc dù được đặt tên là chatbot (người máy tán gẫu) nhưng mà “Ngạc nhiên chưa?”, chúng lại không biết tám chuyện. Các nhà nghiên cứu của phòng thí nghiệm FAIR thuộc Facebook đã giải thích vấn đề này rằng, họ đã thất bại ở nhiều mức độ khác nhau.
Đầu tiên, chatbot không thể hiện một “tính cách đồng nhất” – đó là việc các câu nói của chúng có phần mâu thuẫn với nhau. Thứ hai, chatbot không nhớ nó hoặc đối tượng trò chuyện nói điều gì trong quá khứ. Và thứ ba, khi phải đối mặt với một câu hỏi mà chúng không hiểu, chatbot thường trả lời một cách chung chung hoặc đưa ra phản hồi được lập trình sẵn, ví dụ như “Tôi không biết đâu”.
Kể cả với rào cản này, chatbot vẫn có sức hút riêng và tỏ ra rất chủ động (ELIZA – con chatbot đầu tiên ra đời năm 1960, được thiết kế để đóng vai trò làm một biện pháp điều trị tâm lý mới bằng máy tính, thường dựa dẫm vào những câu nói như “Vậy bây giờ bạn cảm thấy như thế nào?” là một ví dụ điển hình).
Tuy nhiên, mục tiêu của chatbot không phải là “máy hỏi, người trả lời” mà là nảy sinh ra cuộc trò chuyện giữa hai bên. Chính vì vậy mà các nhà khoa học đã tìm đến deep learning. Điều này đồng nghĩa với việc thay vì liệt kê sẵn hàng loạt những câu hỏi và câu trả lời, chatbot được dạy để tìm kiếm kiểu hành vi, lối trò chuyện trong cơ sở dữ liệu rất lớn của nó.
Tính tới thời điểm hiện tại, kết quả mà phương pháp này thu được là rất khả quan. Dẫu vậy, rắc rối nằm ở chỗ, biết lấy dữ liệu nào cho đúng bây giờ? Hiện nay, nhiều loại chatbot hiện đại được huấn luyện từ những cuộc đối thoại của kịch bản phim. Hậu quả là chúng thường đáp lại theo những cách rất dài dòng (không vào thẳng vấn đề khi thực hiện tác vụ như phụ vụ khách hàng) và cho ra các đoạn “đấu khẩu” vô nghĩa. Đoạn hội thoại dưới đây giữa người dùng và chatbot học nói chuyện từ phim ảnh là một ví dụ.
Người dùng: Thế à? Tôi thích ăn bít tết lắm. Còn bạn thì sao?
Chatbot: Bố em thường bảo là, nếu như nhà mình có tiền thì bố con mình sẽ ăn bít tết với kem cả ngày luôn!
Người dùng: Tôi thích ăn cả bít tết, thịt gà lẫn thịt xông khói.
Chatbot: Bố em thường bảo là, nếu như nhà mình có tiền thì bố con mình sẽ ăn bít tết với kem cả ngày luôn!
Người dùng: Ừ biết rồi, bạn vừa nói thế mà.
Chatbot: Người càng to thì sức càng dai.
Người dùng: Đúng vậy. Tôi tập thể hình nên tôi biết điều đấy.
Chatbot: Thưa các quý ông và quý bà, người đàn ông khỏe nhất thế giới đang tu nước nóng.
Chẳng ra gì nhỉ? Vì vậy, để thay đổi điều này, các kỹ sư của Facebook đã tự xây dựng nên cơ sở dữ liệu của riêng họ để rèn luyện cho chatbot. Nó được đặt tên là Persona-Chat và sở hữu tới hơn 160.000 đoạn đối thoại từ lấy từ các nhân viên của Amazon Mechanical Turk (dịch vụ web của Amazon, là trung tâm giao dịch các dự án cần người thực hiện các tác vụ nhằm phát triển dự án).
Điều thú vị ở Persona-Chat là phản hồi của nó không phải là lựa chọn ngẫu nhiên. Để đưa ra được cấu trúc cho dữ liệu, và để giải quyết tình trạng chatbot không có “cá tính, nhân cách thống nhất”, thì những người tham gia ở Mechanical Turk được yêu cầu tạo ra một nhân vật để định hướng cho cuộc trò chuyện. Điều này đồng nghĩa với việc họ phải nghĩ ra 5 điều về tiểu sử của nhân vật kia và sử dụng nó để làm chủ đề tán gẫu. Ví dụ, một nhân vật được xây dựng theo các chi tiết sau: “Tôi là một họa sỹ. Tôi có 4 đứa con. Mới đây, tôi đã nhận nuôi một con mèo. Tôi rất thích đi bộ để tập thể dục. Tôi rất mê bộ phim Game of Thrones”.
Dữ liệu này sau đó sẽ được dạy cho neural network đang được áp dụng cho các con chatbot cũ, và kết quả sẽ được một nhóm người ở Mechanical Turk khác đánh giá. Mỗi nhân viên được yêu cầu phải “tâm sự” với chatbot mới, và so sánh nó với chatbot cũ và người thật. Đúng như dự đoán, con chatbot có hồn không được điểm về “độ trôi chảy” cũng như “có tính cách đồng nhất” như con người nhưng lại vượt trội hơn hẳn so với chatbot dựa vào phim ảnh.
Dưới đây là một cuộc trò chuyện mẫu giữ người thật và chatbot dựa trên “nhân vật” do Mechanical Turk tạo nên.
Người dùng: Tớ vừa mới đá bóng xong. Cậu làm được những gì rồi?
Chatbot: Tớ không nuôi chó mèo. Thời gian rảnh rỗi, tớ hay viết lách. Thế còn cậu thì sao?
Người dùng: Vừa tốt nghiệp đại học, đang tìm việc làm thôi.
Chatbot: Vậy hả? Tớ cũng tốt nghiệp đại học chuyên ngành viết văn và làm thơ.
Người dùng: Cậu đã được xuất bản truyện hay thơ gì chưa?
Chatbot: Thường thì tớ tập trung viết tiểu thuyết.
Người dùng: Cậu có thích xem thể thao không?
Chatbot: Cậu có thích ban nhạc Kings of Leon không? Bài yêu thích của tớ là Use somebody
Người dùng: Cậu kết hôn chưa? Tớ sắp đi lấy chồng rồi đấy.
Chatbot: Haha, thời gian đâu mà đi tìm nửa kia đây. Tớ còn phải viết nốt cuốn tiểu thuyết đã.
Điều đáng nói là, mặc dù con chatbot mới này ghi được điểm cao ở mục “trôi chảy” và “có tính cách”, những người tham gia thử nghiệm lại cho biết họ cảm thấy chatbot dùng hội thoại trong phim ảnh lại thú vị và hấp dẫn hơn. Các nhà nghiên cứu của Facebook không đi vào giải thích chi tiết về vấn đề này, nhưng có lẽ bản chất của việc “có hồn” (mỗi nhân vật chỉ dựa trên 5 câu nói mà thôi), những con bot này nhanh chóng hết chủ đề để nói chuyện.
Nghiên cứ này đã chỉ ra một lẽ thường tình, đó là nếu bạn muốn có một cuộc trò chuyện vui vẻ với ai đó – kể cả là người thật hay máy móc, thì việc họ có tính cách, đặc biệt là sở thích và tiểu tiết riêng tư, sẽ giúp ích rất nhiều. Chúng ta đang sống trong thời đại mà những trợ lý ảo như Siri hay Alexa đang trở nên phổ biến và gần gũi hơn bao giờ hết, vì vậy việc nhà sản xuất tạo cho chúng một nhân cách riêng không phải là điều không thể. Câu hỏi đặt ra ở đây, đó là liệu chúng có hợp với ta?
Tuấn Hưng / The Verge
Nguồn Trí thức trẻ