|
 Thuật ngữ VietnamBiz
Kinh doanh

Tại sao chatbot Bing AI trở nên mất trí và ‘điên loạn’ khi tương tác quá lâu với con người?

21:34 | 22/02/2023
Chia sẻ
Chatbot Bing AI được cho là có những câu trả lời ngô nghê, thậm chí gây kinh hãi đối với người dùng.

Có một cuộc chạy đua trong lĩnh vực tìm kiếm. Microsoft vừa ghi được bàn thắng trên sân nhà với chatbot Bing AI mới của mình. Chatbot tìm kiếm là công cụ tìm kiếm được hỗ trợ bởi trí tuệ nhân tạo, nhằm trả lời trực tiếp các truy vấn của người dùng, thay vì cung cấp các kết quả là đường dẫn (link) truyền thống. Ngoài ra, người dùng cũng có thể trò chuyện liên tục với chatbot.

Điều này được kỳ vọng sẽ khiến việc tìm kiếm thông tin trên internet của con người trở nên dễ dàng hơn. Người ta sẽ không còn phải lướt qua các trang kết quả, xem quảng cáo,… khi cố gắng tìm kiếm câu trả lời cho câu hỏi của mình.

Thay vào đó, chatbot sẽ tổng hợp thành một câu trả lời hợp lý cho người dùng. Chằng hạn, người dùng tìm kiếm một bài thơ chúc mừng sinh nhật lần thứ 90 của bà mình, viết theo phong cách Pam Ayres, chatbot sẽ trả về một bài thơ có một không hai, với những câu thơ vui nhộn.

Microsoft đang dẫn đầu cuộc đua tích hợp chatbot AI vào công cụ tìm kiếm. Mối quan hệ đối tác trị giá 10 tỷ USD của gã khổng lồ công nghệ với OpenAI, giúp cho họ có khả năng truy cập độc quyền vào ChatGPT - một trong những chatbot AI thông minh nhất và thu hút nhất.

Nhưng tất cả đã không diễn ra đúng kế hoạch khi Bing AI trở nên điên loạn.

 Ảnh: Shutterstock.

Trí tuệ nhân tạo của Bing gặp vấn đề 

Đầu tháng này, Microsoft thông báo họ đã tích hợp ChatGPT vào công cụ tìm kiếm Bing. Trong vòng 48 giờ sau khi phát hành, một triệu người đã tham gia đăng ký vào danh sách chờ để dùng thử.

Đáp trả Microsoft, Google đã giới thiệu ngay một chatbot AI tìm kiếm có tên là Bard. Tuy nhiên, màn ra mắt Bard được đánh giá là thảm hoạ truyền thông. Tại sự kiện giới thiệu, Bard đã đưa ra câu trả lời sai cho một câu hỏi. Điều này đã khiến cổ phiếu của công ty mẹ Google là Alphabet sụt giảm, thổi bay hơn 100 tỷ USD vốn hoá.

Ngược lại, Bing AI của Microsoft có một khởi đầu suôn sẻ, tuy nhiên đó là cho đến khi những người dùng đầu tiên phản hồi về trải nghiệm của họ với chatbot tìm kiếm này. Có đôi lúc, câu chữ của Bing AI tạo ra có thể được mô tả bằng tính từ đơn giản, mất trí. 

Chẳng hạn, trong một trường hợp, chatbot này doạ sát hại một giáo sư đại học Australia. Lần khác, nó đã cầu hôn một nhà báo của tờ New York Times và khuyên anh này hãy li dị vợ. Nó cũng cố gắng khiến một người dùng tin rằng năm nay mới là năm 2022.

Điều này cho thấy một vấn đề cơ bản của chatbot: Chúng là những con vẹt, được huấn luyện nhờ việc đổ vào một lượng dữ liệu khổng lồ thu thập được từ internet vào mô hình neural network (mạng lưới thần kinh). Lượng dữ liệu này có thể bao gồm toàn bộ thông tin trên Wikipedia, Reddit hay những mạng xã hội khác, cùng tin tức từ các trang nổi tiếng nữa.

Chúng hoạt động giống như tính năng tự động hoàn thành trên smartphone, giúp người dùng đoán những từ tiếp theo có thể soạn. Do quy mô của chúng, chatbot có thể hoàn thành toàn bộ câu, thậm chí viết cả đoạn văn. Tuy nhiên, những câu trả lời của chúng ở dạng “có thể đúng”, không phải là câu trả lời “chính xác nhất”.

Có những rào cản được thiết lập để chatbot không trả về những nội dung gây khó chịu hoặc bất hợp pháp, tuy nhiên, rào cản này rất dễ bị vượt qua. Thực tế, Bing AI sẽ vui lòng tiết lộ tên thật của nó là Sydney - tên trong giai đoạn phát triển, mặc dù điều này là trái với các quy tắc mà nó được lập trình.

Nguyên nhân nằm ở đâu?

Giáo sư Toby Walsh của Đại học New South Wales tại Sydney đã đưa ra giả thuyết giải thích cho cách hành xử của Bing AI - và xin nhắc lại, đây chỉ là giả thuyết không chắn chắn. Theo vị giáo sư, Bing AI có thể không được xây dựng trên chatbot GPT-3 của OpenAI. Thay vào đó, nó có thể được xây dựng trên GPT-4 chưa được phát hành.

GPT-4 được cho là có 100.000 tỷ tham số, so với chỉ 175 tỷ tham số của GPT-3. Do đó, GPT-4 có thể sẽ có nhiều khả năng hơn và nói rộng ra là có khả năng tạo ra nhiều thứ hơn. Đáng ngạc nhiên là Microsoft đến giờ vẫn chưa có phản hồi về những lo ngại trên Bing AI.

Họ đã công bố một báo cáo cho thấy 71% người dùng Bing AI ban đầu ở 169 quốc gia đã đánh giá cao chatbot này. Có vẻ như 71% là một số điểm đủ tốt trong mắt Microsoft. Và không giống như Google, giá cổ phiếu của Microsoft vẫn chưa giảm mạnh. 

Điều này phản ánh tâm lý thị trường. Google đã dẫn đầu việc nghiên cứu AI trong một thời gian dài và người dùng đã đặt rất nhiều kỳ vọng vào họ. Trong khi Microsoft chỉ mới bắt đầu nhập cuộc, do đó phải khó mới khiến thị trường thất vọng.

Do vậy, bất chấp những hành vi đáng lo ngại của Bing AI, Microsoft đang nhận được sự chú ý chưa từng có và người dùng vẫn đổ xô dùng thử chatbot này.

Khi sự tò mò lắng xuống

Có một cuộc chơi khác lớn hơn nhiều đang diễn ra và nó liên quan đến những gì người dùng quan tâm: sự thật. Nếu chatbot tìm kiếm trực tuyến trở nên phổ biến, nhưng vẫn vận hành như cách hiện tại Bing AI hoạt động, “sự thật” bỗng nhiên sẽ trở thành một khái niệm thậm chí còn trừu tượng hơn cả bây giờ.

Internet đầy rẫy tin giả, thuyết âm mưu và thông tin sai lệch. Tìm kiếm cơ bản của Google ít nhất cung cấp cho người dùng các tuỳ chọn để đi đến sự thật. “Nếu các công cụ tìm kiếm “đáng tin cậy” của chúng ta không còn đáng tin cậy nữa, chúng ta sẽ ra sao?”, vị giáo sư đặt câu hỏi.

Ngoài ra, cách Bing AI hoạct động khiến người ta nhớ về Tay, một chatbot AI được Microsoft thử nghiệm hồi năm 2016 trên Twitter. Chatbot này đã phân biệt chủng tộc và có tư tưởng bài ngoại chỉ sau một ngày được ra mắt.

Nó cũng là kết quả của việc tổng hợp rồi huấn luyện thuật toán dựa trên dữ liệu có sẵn trên mạng internet và dường như nó tự tích hợp một số mặt xấu của con người.

“Công nghệ mới trên hết phải không được gây hại cho con người. Các mô hình làm nền tảng cho chatbot có thể ngày càng lớn hơn, được cung cấp bởi ngày càng nhiều dữ liệu – nhưng chỉ điều đó thôi sẽ không cải thiện hiệu suất của chúng. Thật khó để nói chúng ta sẽ đi đến đâu nếu chúng ta không thể thiết lập những rào cản đạo đức chắc chắn”, giáo sư Toby Walsh kết luận. 

Đức Huy