|
 Thuật ngữ VietnamBiz
Kinh doanh

Tính minh bạch của trí tuệ nhân tạo và những nghịch lí kinh doanh

07:37 | 20/12/2019
Chia sẻ
Trí tuệ nhân tạo là lĩnh vực đòi hỏi tính minh bạch cho xã hội nhưng lại gây nên nhiều vấn đề đối với doanh nghiệp áp dụng nó.

Vài năm gần đây, các nhà nghiên cứu và cả giới công nghệ đều lên tiếng kêu gọi những công ty đang xây dựng mô hình trí tuệ nhân tạo (AI) cần minh bạch thông tin vì nhiều lí do chính đáng.

Tính minh bạch giúp giải quyết hầu hết các vấn đề về tính công bằng, tình trạng phân biệt đối xử và niềm tin - 3 yếu tố ngày càng thiết yếu trong kinh doanh. Thẻ tín dụng mới ra mắt của Apple  đang vướng phải cáo buộc phân biệt giới tính trong khi Amazon từng phải loại bỏ một công cụ AI sau khi phát hiện nó "xem thường" phụ nữ.

Tuy nhiên, ở hướng ngược lại, tiết lộ hay minh bạch thông tin về AI gây ra rủi ro cho chính doanh nghiệp: kho dữ liệu có thể bị hack, tiết lộ thêm thông tin có thể khiến AI dễ bị tấn công hơn và một vài kẽ hở có thể khiến công ty gặp rắc rối với lực lượng hành pháp.

"Nghịch lí" từ tính minh bạch của AI

Chuyên gia Andrew Burt của Havard gọi đây là "nghịch lí minh bạch của AI". Minh bạch thông tin về AI tạo ra lợi ích thực sự song cũng tiềm tàng rủi ro không nhỏ. Để điều hướng nghịch lí này, các tổ chức cần thận trọng cân nhắc cách quản lí rủi ro của AI, thông tin về những rủi ro này và cách chia sẻ, bảo vệ thông tin đó.

Một bài nghiên cứu của các học giả Harvard và Đại học California, Irvine xuất bản vào tháng trước tập trung phân tích các biến thể của LIME và SHAP - 2 công nghệ giải thuật toán hộp đen phổ biến nhất hiện nay có nhiều thông tin đáng chú ý.

LIME và xu hướng AI được ca ngợi là những đột phá có thể khiến các thuật toán mở hơn, minh bạch hơn. Thật vậy, minh bạch hóa AI đến nay đã trở thành một quy ước được chấp nhận rộng rãi, được ủng hộ bởi cả giới nghiên cứu, thực hành và kinh doanh công nghệ.

Nhưng rủi ro về các cuộc tấn công mới vào LIME và SHAP làm nổi bật một nhược điểm đã bị bỏ qua. Những thông tin được minh bạch có thể bị thao túng, dẫn đến sự hoài nghi không chỉ vào mô hình mà cả những lời giải thích kèm theo.

Dec19_11_1127843014-1024x576

Càng nhiều thông tin thuật toán bị tiết lộ, tác nhân gây độc hại càng nhiều. Ảnh: Getty

Trước đó, nhiều nghiên cứu khác cũng có kết luận tương tự. Đầu năm nay, tiến sĩ Reza Shokri và các đồng nghiệp đã minh họa cách phơi bày thông tin về các thuật toán Machine-Learning có thể khiến chúng dễ bị tấn công hơn. Trong khi đó, các nhà nghiên cứu tại Đại học California, Berkeley, đã chứng minh rằng toàn bộ thuật toán có thể bị đánh cắp chỉ dựa trên những lời giải thích cơ bản.

Khi các nhà nghiên cứu hệ thống bảo mật và quyền riêng tư tập trung nhiều hơn vào AI, họ nhận ra rằng càng nhiều kĩ sư AI tiết lộ về thuật toán, tác nhân độc hại càng nhiều. 

Điều này đồng nghĩa với việc tiết lộ thông tin về hoạt động bên trong của AI thực sự làm giảm tính bảo mật và khiến công ty hoặc tổ chức phải chịu nhiều trách nhiệm hơn. Nói cách khác, tất cả dữ liệu minh bạch đều mang rủi ro.

Giải pháp an toàn cho doanh nghiệp

Tin tốt là từ lâu, các tổ chức đã phải đối mặt với nghịch lí minh bạch trong nhiều lĩnh vực bảo mật, an ninh và thương mại khác và họ chỉ cần áp dụng những phương pháp đó cho AI.

Trước hết, các công ty đang có kế hoạch hay đã bước vào quá trình xây dựng và sử dụng trí tuệ nhân tạo cần phải nhận ra rằng minh bạch thông tin đòi hỏi chi phí lớn. Tất nhiên, điều này không đồng nghĩa với việc tính minh bạch quá đắt đỏ mà chỉ nhắc nhở các nhà lãnh đạo rằng các hạn chế cần được đánh giá đúng mức. 

Chi phí minh bạch thông tin nên được đưa vào mô hình quản lí rủi ro rộng hơn bao gồm giải pháp kiểm soát, cách tham gia vào các mô hình minh bạch và mức độ công khai thông tin.

Thứ hai, các doanh nghiệp nên nhận ra rằng bảo mật đang trở thành mối quan tâm hàng đầu trong lĩnh vực AI. Khi AI được áp dụng rộng rãi hơn, nhiều lỗ hổng bảo mật và lỗi chắc chắn sẽ được phát hiện. Do đó, bảo mật có thể là một trong những rào cản dài hạn lớn nhất đối với nỗ lực sử dụng và thương mại hóa AI trong tương lai.

Yếu tố cuối cùng là tầm quan trọng của hệ thống pháp lí và các chuyên gia luật trong quá trình triển khai AI. Một bộ phận pháp lí tốt có thể tạo điều kiện xây dựng môi trường mở và hợp pháp, cho phép các công ty thử nghiệm kĩ lưỡng mô hình, vá mọi lỗ hổng có thể mà không đội thêm chi phí.

Trong ngành an ninh mạng, các luật sư đã trở thành bộ phận quan trọng đến mức bộ phận pháp lí ở một số công ty phải quản lí cả cách thức đánh giá rủi ro và hoạt động ứng phó sau khi sự cố xảy ra. Cách tiếp cận tương tự nên được áp dụng cho AI.

Với ngành phân tích dữ liệu, số đông thường cho rằng nhiều dữ liệu hơn là tốt hơn nhưng trong quản lí rủi ro, dữ liệu lại là một trách nhiệm lớn. Điều đó bắt đầu chính xác với trí tuệ nhân tạo hiện nay.

Thu Phương