|
 Thuật ngữ VietnamBiz
Kinh doanh

Chính kỹ sư làm việc tại Facebook cũng mất niềm tin vào AI

16:48 | 22/10/2021
Chia sẻ
Theo báo cáo nội bộ của công ty, AI chỉ đạt được thành công ở mức tối thiểu trong việc loại bỏ phát ngôn thù hận, hình ảnh bạo lực và các nội dung có vấn đề khác.

Các giám đốc của Facebook từ lâu đã nói rằng trí tuệ nhân tạo sẽ giải quyết các vấn đề “kinh niên” của công ty trước thực trạng ngôn từ thù hận và bạo lực tràn lan khiến người dùng trẻ tuổi lần lượt rời bỏ mạng xã hội này.

Song viễn cảnh sáng sủa đó có vẻ vẫn còn cách Facebook khá xa, theo các tài liệu nội bộ của công ty mà tờ Wall Street Journal có được. AI của Facebook không thể xác định nhất quán các video xả súng bởi chính người quay, những lời nói phân biệt chủng tộc và thậm chí, trong một tình tiết đáng chú ý đã khiến các nhà nghiên cứu nội bộ bối rối trong nhiều tuần, sự khác biệt giữa một trận đá gà và...một vụ đụng xe.

Các tài liệu cho thấy, các nhân viên của Facebook đã ước tính rằng công ty chỉ xóa bỏ được một phần nhỏ các bài đăng vi phạm các quy tắc của mình - chỉ vài phần trăm. Khi các thuật toán của Facebook không đủ chắc chắn rằng nội dung người dùng đăng tải vi phạm chính sách đủ để bị xoá bỏ, nội dung đó sẽ vẫn được tồn tại nhưng bị hạn chế số lượng người xem. Chủ tài khoản đăng tải nội dung đó cũng không bị trừng phạt.

Facebook tự tin rằng AI sẽ giúp "dọn dẹp" nền tảng, nhưng chính các kỹ sư của họ lại hề không nghĩ vậy - Ảnh 1.

Logo Facebook tại Nasdaq MarketSite, ở Quảng trường Thời đại của New York. (Ảnh: AP)

Các nhân viên Facebook đang phân tích hiệu quả trong việc thực thi các quy tắc của riêng mình theo các tiêu chuẩn nội bộ cũng như theo các quy định công khai, chẳng hạn như Tiêu chuẩn Cộng đồng.

Các tài liệu được tờ Journal xem xét cũng cho thấy Facebook hai năm trước đã cắt giảm thời gian làm việc của bộ phận kiểm duyệt nội dung. Điều đó khiến công ty phụ thuộc nhiều hơn vào AI để rồi thổi phồng thành công của công nghệ này “quá lố” trong các số liệu thống kê công khai.

Theo các văn bản nội bộ, đội ngũ kiểm duyệt này thừa nhận rằng công ty không có khả năng sàng lọc phát ngôn thù hận, hình ảnh bạo lực và các nội dung có vấn đề khác một cách thực sự hiệu quả.

Một kỹ sư cao cấp và nhà khoa học nghiên cứu viết trong một lưu ý vào giữa năm 2019: “Vấn đề là chúng ta không có và có thể sẽ không bao giờ có một mô hình có khả năng nắm bắt (và kiểm duyệt hiệu quả) đa phần các nội dung gây hại, đặc biệt trong các lĩnh vực nhạy cảm.”

Ông ước tính hệ thống tự động của công ty đã xóa các bài đăng chỉ chiếm 2% tổng số lượt xem có chứa phát ngôn thù hận trên cơ sở vi phạm các quy tắc của công ty. Ông viết: “Các ước tính gần đây cho thấy trừ khi có một sự thay đổi lớn trong chiến lược, còn không sẽ rất khó cải thiện điều này vượt quá 10 - 20% trong ngắn hạn”.

Tháng 3 năm nay, một nhóm nhân viên khác của Facebook cũng đưa ra kết luận tương tự, ước tính rằng các hệ thống đó đang xóa các bài đăng chỉ chiếm từ 3% đến 5% lượt xem về phát ngôn thù hận trên nền tảng và vỏn vẹn….0,6% tất cả nội dung vi phạm chính sách của Facebook về chống bạo lực và kích động.

Đạt Thái