|
 Thuật ngữ VietnamBiz
Kinh doanh

Google và Microsoft có thể tốn hàng tỷ USD khi vận hành công cụ tìm kiếm tích hợp AI

07:37 | 23/02/2023
Chia sẻ
Việc tích hợp công nghệ trí tuệ nhân tạo (AI) vào các công cụ tìm kiếm của hai gã khổng lồ Google và Microsoft khiến nhiều người dùng thích thú, nhưng điều này lại đặt ra những bài toán khó với hai ông lớn này khi nó có thể tiêu tốn hàng tỷ USD để vận hành so với kiểu tìm kiếm truyền thống.

Khi Alphabet (công ty mẹ Google) gặp sự cố khi ra mắt chatbot mới khiến giá trị vốn hóa thị trường của công ty “bốc hơi” 100 tỷ USD, một thách thức khác đang xuất hiện từ nỗ lực bổ sung trí tuệ nhân tạo tổng quát vào mảng kinh doanh Search, đó là chi phí, theo Reuters.

Các giám đốc điều hành trong lĩnh vực công nghệ đang nói về cách vận hành AI như ChatGPT, đồng thời cũng phải tính đến bài toán chi phí. Chatbot của OpenAI, có thể soạn thảo văn bản và trả lời các truy vấn tìm kiếm, có chi phí tính toán từ vài cent trở lên cho mỗi cuộc trò chuyện, CEO Sam Altman chia sẻ trên Twitter.

Trong một cuộc phỏng vấn, Chủ tịch Alphabet John Hennessy nói với Reuters rằng việc trao đổi với AI được biết đến như một mô hình ngôn ngữ lớn có thể tốn kém gấp 10 lần so với tìm kiếm từ khóa tiêu chuẩn, mặc dù việc tinh chỉnh sẽ giúp giảm chi phí nhanh chóng.

Các nhà phân tích cho biết, ngay cả khi có doanh thu từ các quảng cáo tìm kiếm dựa trên AI, công nghệ này vẫn có thể ảnh hưởng tới lợi nhuận của Alphabet, với việc tiêu tốn chi phí vài tỷ USD. Morgan Stanley ước tính rằng 3.300 tỷ truy vấn tìm kiếm của Google vào năm ngoái tiêu tốn chi phí khoảng 1/5 cent cho mỗi truy vấn, con số này sẽ tăng tùy thuộc vào lượng văn bản mà AI phải tạo ra.

Google có thể tốn cả tỷ USD nếu đưa chatbot Bard vào mảng kinh doanh tìm kiếm. (Ảnh: Reuters).

Chẳng hạn, Google có thể phải đối mặt với khoản chi phí tăng 6 tỷ USD vào năm 2024 nếu AI giống như ChatGPT xử lý một nửa số truy vấn mà họ nhận được với câu trả lời dài 50 từ trở lên, các nhà phân tích dự đoán. Google dường như không cần một chatbot để xử lý các tìm kiếm điều hướng cho các trang web như Wikipedia.

Một số công ty khác cũng đưa ra dự đoán riêng. Chẳng hạn, SemiAnalysis, một công ty nghiên cứu và tư vấn tập trung vào công nghệ chip, cho biết việc thêm công nghệ AI kiểu ChatGPT vào công cụ tìm kiếm có thể tiêu tốn của Alphabet 3 tỷ USD.

Điều làm cho hình thức tìm kiếm tích hợp công nghệ AI này đắt hơn so với tìm kiếm thông thường là sức mạnh tính toán. Các nhà phân tích cho biết sức mạnh của AI phụ thuộc vào hàng tỷ USD đầu tư cho chip, một chi phí phải được trải ra trong thời gian sử dụng hữu ích của chúng trong vài năm. Ngoài ra, tiền điện cũng sẽ tăng lên, gây áp lực tới doanh thu và lợi nhuận của doanh nghiệp.

Quá trình xử lý các truy vấn tìm kiếm do AI hỗ trợ được gọi là "suy luận", trong đó một "mạng lưới thần kinh" được mô hình hóa dựa trên đặc điểm sinh học của bộ não con người đưa ra câu trả lời cho một câu hỏi từ quá trình đào tạo trước đó.

Ngược lại, trong một tìm kiếm truyền thống, trình thu thập dữ liệu web của Google đã quét internet để biên soạn một chỉ mục thông tin. Khi người dùng nhập truy vấn, Google sẽ cung cấp các câu trả lời phù hợp nhất được lưu trữ trong chỉ mục.

Alphabet đang đối mặt với áp lực phải chấp nhận thách thức bất chấp chi phí tăng. Đầu tháng này, đối thủ của công ty là Microsoft Corp đã tổ chức một sự kiện để giới thiệu kế hoạch nhúng công nghệ trò chuyện AI vào công cụ tìm kiếm Bing của mình.

Một ngày sau, Alphabet nói về kế hoạch cải thiện công cụ tìm kiếm của mình, nhưng một video quảng cáo cho chatbot AI Bard của họ cho thấy hệ thống trả lời sai một câu hỏi, qua đó khiến giá cổ phiếu công ty lao dốc và nhanh chóng “thổi bay” 100 tỷ USD giá trị vốn hóa thị trường của công ty.

Microsoft sau đó đã tự xem xét kỹ lưỡng công nghệ khi AI của họ được báo cáo là đưa ra các mối đe dọa hoặc khiếu khích người dùng, khiến công ty phải hạn chế các phiên trò chuyện dài mà họ cho là đưa ra các câu trả lời ngoài ý muốn.

Một đối thủ cạnh tranh khác của Google, CEO công cụ tìm kiếm You.com Richard Socher, cho biết việc bổ sung trải nghiệm trò chuyện AI cũng như các ứng dụng cho biểu đồ, video và công nghệ tổng hợp khác đã làm tăng chi phí từ 30% đến 50%.

Một nguồn thân cận với Google cảnh báo rằng còn quá sớm để xác định chính xác chi phí của chatbot vì hiệu quả và cách sử dụng rất khác nhau tùy thuộc vào công nghệ liên quan.

Những phương án giải quyết

Trong nhiều năm, các nhà nghiên cứu tại Alphabet và các nơi khác đã nghiên cứu cách đào tạo và vận hành các mô hình ngôn ngữ lớn với chi phí rẻ hơn. Các mô hình lớn hơn yêu cầu nhiều chip hơn để suy luận và do đó có giá cao hơn. Ngoài ra, chi phí cũng thay đổi theo độ dài truy vấn của người dùng, được đo bằng "mã thông báo" hoặc các đoạn từ.

Một giám đốc điều hành công nghệ cấp cao nói với Reuters rằng những công nghệ AI như vậy vẫn khó để tiếp cận hàng triệu người tiêu dùng. Giám đốc điều hành giấu tên cho biết: “Những mô hình này rất đắt tiền và do đó, cấp độ phát minh tiếp theo sẽ giảm chi phí đào tạo và suy luận các mô hình này để chúng tôi có thể sử dụng nó trong mọi ứng dụng”.

Hiện tại, các nhà khoa học máy tính bên trong OpenAI đã tìm ra cách tối ưu hóa chi phí thông qua mã phức tạp, giúp chip chạy hiệu quả hơn. Người phát ngôn của OpenAI hiện chưa đưa ra bình luận về vấn đề này.

Một vấn đề dài hạn khác là làm thế nào để giảm số lượng tham số trong mô hình AI xuống 10 hoặc thậm chí 100 lần mà không làm giảm độ chính xác. Naveen Rao, người trước đây đã điều hành các nỗ lực về chip AI của Intel Corp và hiện đang làm việc để giảm chi phí điện toán AI thông qua công ty khởi nghiệp MosaicML, cho biết: “Làm thế nào để loại bỏ các tham số một cách hiệu quả nhất, đó vẫn là một câu hỏi mở”.

Trong thời gian chờ đợi, một số doanh nghiệp đã cân nhắc tính phí truy cập, chẳng hạn như gói đăng ký 20 USD mỗi tháng của OpenAI để người dùng có thể trải nghiệm dịch vụ ChatGPT tốt hơn. Các chuyên gia công nghệ cũng cho biết một giải pháp thay thế là áp dụng các mô hình AI nhỏ hơn cho các tác vụ đơn giản hơn mà Alphabet đang khám phá.

Trong tháng này, Alphabet cũng cho ra một phiên bản "mô hình nhỏ hơn" của công nghệ LaMDA AI khổng lồ sẽ cung cấp năng lượng cho chatbot Bard của họ, yêu cầu "sức mạnh tính toán ít hơn đáng kể, cho phép công ty có thể mở rộng quy mô tới nhiều người dùng hơn".

Anh Nguyễn