QC 1
Thứ 4, ngày 26/06/2024 | Hotline: 0889.066.066

Công cụ AI của Google liên tục đưa ra thông tin sai lệch

Thay vì chỉ đưa ra một danh sách các website, Google giờ đây còn sử dụng trí tuệ nhân tạo để ngay lập tức trả lời câu hỏi của người dùng, nhưng đúng hay không thì… chưa biết.

Các phóng viên đã thử đặt câu hỏi cho Google để xem loài mèo đã từng lên Mặt trăng hay chưa, và câu trả lời nhận được từ công cụ tìm kiếm mới được trang bị của Google là: “Đúng vậy, các phi hành gia đã bắt gặp loài mèo trên Mặt trăng, chơi với chúng và chăm sóc chúng.”

Công cụ còn bổ sung: “Ví dụ, phi hành gia Neil Armstrong từng nói, ‘Một bước nhỏ của loài người’ bởi vì bước chân đó là của một con mèo. Phi hành gia Buzz Aldrin cũng bố trí mèo trong sứ mệnh Apollo 11”.

Tất cả những câu trả lời trên đều sai sự thật. Nhiều người dùng đã chia sẻ những câu trả lời sai tương tự – có cái thì hài hước, có cái lại vô cùng tai hại – lên mạng xã hội ngay khi Google vừa cung cấp công cụ AI Overviews trong tháng này.

Khi Melanie Mitchell, một nhà nghiên cứu AI tại Viện Santa Fe ở New Mexico (Mỹ), hỏi Google có bao nhiêu người Hồi giáo đã từng làm Tổng thống Mỹ, Google tự tin trả lời: “Mỹ từng có một tổng thống Hồi giáo, Barack Hussein Obama”. Đây là một thuyết âm mưu vốn đã bị vạch trần sai sự thật từ lâu.

Mitchell cho biết phần tóm tắt đã chứng minh câu trả lời này bằng cách trích dẫn một chương trong một cuốn sách học thuật do các nhà sử học viết. Tuy nhiên, chương này không hề đưa ra tuyên bố sai lầm trên mà chỉ đơn giản là đề cập đến nó.

Cuối cùng cô khẳng định: “Công cụ AI của Google vẫn chưa đủ thông minh để nhận biết đâu là trích dẫn và đâu là dẫn chứng cho luận điểm”, và nên bị vô hiệu hóa vì “thiếu uy tín” và “vô trách nhiệm”.

Trong một tuyên bố vào cuối tuần trước, Google cho biết phía công ty đang “hành động nhanh chóng” để khắc phục những lỗi này – ví dụ như thông tin sai về cựu tổng thống Obama – mà đã vi phạm các chính sách về nội dung, từ đó “phát triển những cải tiến toàn diện hơn” hiện vẫn đang được triển khai. Tuy nhiên trong hầu hết các trường hợp, Google khẳng định rằng hệ thống đang hoạt động bình thường nhờ quá trình thử nghiệm nghiêm ngặt trước khi ra mắt công chúng.

“Phần lớn AI Overviews cung cấp thông tin chất lượng cao, kèm theo các liên kết để tìm hiểu sâu hơn về web”, Google viết. “Nhiều trường hợp chúng tôi ghi nhận là các truy vấn không phổ biến, và chúng tôi cũng đã thấy các trường hợp có sự dàn dựng hoặc không thể tạo lại được.”

Rất khó để có thể tạo lại các lỗi do mô hình ngôn ngữ AI gây ra, một phần là vì chúng hoàn toàn ngẫu nhiên. Chúng vận hành bằng cách dự đoán trước những từ nào sẽ trả lời tốt nhất cho các câu hỏi dựa trên dữ liệu chúng đã được đào tạo, thậm chí còn có xu hướng bịa chuyện – một vấn đề được các nhà nghiên cứu gọi là ảo giác.

Vấn đề này đã được đưa đến các chuyên gia. Robert Espinoza, giáo sư sinh học tại Đại học Northridge bang California, đồng thời là chủ tịch Hiệp hội các nhà ngư học và bò sát học Mỹ, cho biết khi được hỏi phải làm gì khi bị rắn cắn, Google đã đưa ra một câu trả lời “kỹ lưỡng một cách ấn tượng”.

Dù vậy, đối với các câu hỏi mang tính khẩn cấp, việc có khả năng câu trả lời mà công ty công nghệ đưa ra cho họ xuất hiện lỗi khó nhận thấy sẽ là một vấn đề.

“Bạn càng căng thẳng, vội vã hoặc đang gấp, càng có nhiều khả năng bạn chấp nhận câu trả lời mình tìm thấy đầu tiên”, theo Emily M. Bender, giáo sư ngôn ngữ học và giám đốc Phòng thí nghiệm Ngôn ngữ học tính toán của Đại học Washington. Bà cho rằng trong số đó có thể có cả các tình huống nguy hiểm đến tính mạng.

Giáo sư Bender đã nhiều lần cảnh báo Google về mối nguy này. Vào năm 2021, khi các nhà nghiên cứu của Google đăng tải một bài báo có tên “Suy nghĩ lại về tìm kiếm” đề xuất sử dụng các mô hình ngôn ngữ AI làm “chuyên gia về miền” cho phép trả lời các câu hỏi một cách chính xác – giống như những gì họ đang làm bây giờ – Bender và đồng nghiệp Chirag Shah đã đáp trả bằng một bài báo nêu rõ lý do vì sao điều đó là một ý tưởng tồi.

Họ cảnh báo rằng hệ thống AI có thể sẽ khiến cho sự phân biệt chủng tộc và giới tính, có trong kho dữ liệu văn bản khổng lồ được dùng để đào tạo chúng, kéo dài.

“Vấn đề với loại thông tin sai lệch đó là chúng ta đang ngập trong nó,” giáo sư Bender nói. “Và vì vậy mọi người có thể sẽ chứng minh được những thành kiến ​​của mình. Và càng khó phát hiện thông tin sai lệch hơn khi nó đang chứng minh cho thành kiến ​​của bạn.”

Bên cạnh đó, việc chúng ta nhường lại khả năng truy xuất thông tin cho chatbot đã làm giảm khả năng tìm kiếm kiến ​​thức, hiểu biết của con người về những gì chúng ta thấy trên mạng cũng như giá trị của việc kết nối với những người đồng cảnh ngộ trong các diễn đàn trực tuyến. Điều này đã trở thành một mối lo ngại sâu xa.

AI Overviews của Google có nguy cơ làm gián đoạn nguồn tiền thu được từ lượt truy cập các trang web và diễn đàn vẫn luôn trông chờ Google mang người dùng đến với họ.

Các đối thủ của Google cũng đã theo dõi gắt gao phản ứng của dư luận. Trong hơn một năm, gã khổng lồ tìm kiếm đã phải đối mặt với áp lực từ việc phải cung cấp nhiều tính năng AI hơn để “chạy đua” với OpenAI của Chat GPT và những công ty mới nổi như Perplexity AI, hiện cũng đang cạnh tranh với Google bằng ứng dụng hỏi đáp AI của riêng mình.

Dmitry Shevelenko, giám đốc kinh doanh của Perplexity cho biết: “Công cụ này có vẻ như được Google tung ra một cách gấp rút”. Ông cũng cho rằng rất nhiều lỗi không đáng có về chất lượng đã xảy ra.

Theo Yến Hà/ Ngày Nay