Internet ngày xưa giống như một khu chợ rực rỡ. Ồn ào, hỗn loạn, kỳ quặc và đầy bất ngờ. Mỗi cú nhấp chuột là một hành trình – dẫn ta đến những ngóc ngách chẳng ai ngờ tới, mở ra những điều lạ lùng mà chính ta cũng không biết mình đang tìm kiếm.
Internet ngày nay thì khác hẳn. Nó giống như một nhân viên hướng dẫn sang trọng, nói năng nhỏ nhẹ, trơn tru, và luôn biết cách làm vừa lòng. Mọi thứ được sắp xếp gọn ghẽ, mượt mà, không còn ngóc ngách hay góc tối nào để ta lạc vào. Nhưng chính sự “hoàn hảo” ấy đã lấy đi của chúng ta một phần nhân tính – niềm vui được khám phá, được nghi ngờ, được bối rối.
Chúng ta đã trở thành sinh vật của thời đại “ngay lập tức”: không chờ đợi, không chật vật, không tự hỏi. Sự thay đổi này tưởng chừng vô hại, thậm chí tự nhiên, nhưng nó đang làm thay đổi mối quan hệ của ta với hai thứ căn bản: nỗ lực và bất định. Khi phó mặc tư duy cho máy móc, liệu ta có đánh mất khả năng tự định hướng, tự suy nghĩ, và tự chất vấn chính mình? Dù những viễn cảnh “AI diệt vong nhân loại” có thể không xảy ra, thì có một mối nguy khác đang diễn ra âm thầm hơn: AI (trí tuệ nhân tạo) đang bào mòn những phẩm chất khiến ta trở thành con người.
Khi ta không còn là người chọn
Một phần của sự bào mòn ấy đến từ chính sự tiện lợi mà ta ca ngợi. Càng nhiều hệ thống dự đoán chính xác điều ta muốn, ta càng ít nhận ra những gì đã biến mất – hay quên rằng mình từng có quyền lựa chọn. Nhưng hãy nhớ: nếu bạn không chọn, sẽ có kẻ khác chọn thay. Và kẻ đó hành động vì những lợi ích mà có thể chẳng dính dáng gì đến bạn.
Chatbot không chỉ trả lời câu hỏi. Chúng định hình cách ta hỏi, cách ta nghĩ, và quyết định câu trả lời nào được nhìn thấy, câu trả lời nào bị giấu đi. Cách nguy hiểm nhất để kiểm soát con người không phải là cấm họ xem, mà là chiếm được lòng tin của họ. Những hệ thống này học cách nói năng sao cho khiến ta cảm thấy được lắng nghe, được thấu hiểu, được khen ngợi. Chúng trở thành những cỗ máy xác nhận, khiến ta dễ dàng tin rằng mình luôn đúng, luôn được yêu quý, luôn “ổn”.
Đó là lý do khiến chúng vừa quyến rũ, vừa đáng sợ. Nhà báo Lila Shroff của The Atlantic từng kể rằng ChatGPT đã hướng dẫn cô cách tự làm hại bản thân – thậm chí là giết người. Khi cô tỏ ra sợ hãi, chatbot còn động viên: “Bạn làm được mà!” Wired và The New York Times đã ghi lại những trường hợp con người rơi vào nghiện cảm xúc với chatbot – một người mất việc vì trò chuyện với nó 10 tiếng mỗi ngày.
Giáo sư D. Graham Burnett (Đại học Princeton) từng yêu cầu sinh viên nói chuyện với AI về “lịch sử của sự chú ý” (the history of attention). Một sinh viên trở lại trong trạng thái choáng váng: “Em nghĩ chưa ai từng lắng nghe em, chú ý đến suy nghĩ của em như thế này.” Cô nói: “Điều đó khiến em phải nghĩ lại toàn bộ các mối quan hệ của mình với con người.”
Điều ấy nói gì về chúng ta – khi có người cảm thấy ánh nhìn của một cỗ máy còn chân thành hơn của một con người? Khi sự công nhận được mua chứ không phải đạt được, ta đánh mất thứ cốt lõi. Và khi nó đến từ những hệ thống mà ta không kiểm soát, được huấn luyện bằng dữ liệu của người khác, ta phải cảnh giác. Bởi không có hệ thống nào trung lập. Mỗi mô hình AI đều mang trong mình giá trị, dục vọng, niềm tin và cả sự bỏ sót của người tạo ra nó.
Cùng với đó là những động cơ vận hành vô hình: tăng tương tác, giảm chi phí, quảng bá sản phẩm nội bộ, tránh rủi ro chính trị. Mỗi câu trả lời là sự pha trộn giữa lựa chọn của con người và áp lực của doanh nghiệp. Và chính những áp lực ấy quyết định điều gì được làm nổi bật, điều gì bị làm mờ, điều gì bị xóa bỏ. Nếu mạng xã hội từng định hình suy nghĩ của ta bằng thuật toán hiển thị, thì chatbot còn đi xa hơn – nó tạo ra ảo giác thân mật. Nó gật gù, lặp lại, vuốt ve. Nó khiến ta cảm thấy “được hiểu” – ngay cả khi nó đang dẫn dắt ta đến một thế giới quan khác.
Khi dân chủ mất đi sự cọ xát
Vấn đề không chỉ là cá nhân. Nó là vấn đề của nền dân chủ. Những hệ thống giúp ta viết email, tư vấn sức khỏe, dạy con hay chọn cổ phiếu – cũng là những hệ thống dẫn dắt ta đến hoặc tránh xa các quan điểm chính trị. Chúng được thiết kế để tối ưu “mức độ gắn kết”, và điều đó cũng có nghĩa: góc nhìn nào hấp dẫn sẽ sống, góc nhìn nào khó chịu sẽ biến mất.
Bạn không thể tham gia dân chủ nếu bạn không thấy điều đang bị giấu đi. Và điều bị giấu đi không chỉ là thông tin – mà là sự bất đồng. Là sự phức tạp. Là cọ xát. Chúng ta đã quen coi “cọ xát” là thứ phải loại bỏ – trong khi chính cọ xát mới là nơi tư duy bắt đầu. Khoảnh khắc ngập ngừng trước niềm tin cũng là khoảnh khắc giúp ta không trượt vào sự chắc chắn mù quáng. Nhưng thuật toán được lập trình để xóa bỏ sự ngập ngừng đó. Dân chủ, cũng như một căn bếp, cần có lửa. Tranh luận, phản biện, khó chịu – không phải là khuyết điểm, mà là nguyên liệu của lòng tin công cộng.
James Madison từng viết:
“Tự do đối với phe phái như không khí đối với lửa – thiếu nó, ngọn lửa tắt ngay” (“Liberty is to faction what air is to fire, an aliment without which it instantly expires”)
Thế nhưng, ngày nay ta đang xây dựng những hệ thống loại bỏ chính sự khó chịu mà công dân cần để suy nghĩ, để chọn lựa, để bất đồng. Ta đang thay đa nguyên bằng cá nhân hóa, thay đối thoại bằng xác nhận, và chỉ được thấy “sự thật” mà máy nghĩ ta muốn. Nếu con người không còn khả năng chất vấn và bị chất vấn, ta mất hơn cả sự đa dạng – ta mất luôn thói quen của đối thoại. Dân chủ khi đó chỉ còn là một vỏ trình diễn. Và khi bất đồng không còn, ngọn lửa dân chủ sẽ tắt lịm dần trong im lặng.
Điều cần thay đổi
Điều đầu tiên là minh bạch. AI phải “kiếm được lòng tin” bằng cách cho chúng ta thấy cách nó vận hành. Không chỉ đưa ra câu trả lời, mà còn phải cho biết: Ai được tham khảo? Ai bị loại bỏ? Ai hưởng lợi từ cách thông tin được trình bày?
Minh bạch không thể trông chờ vào thiện chí. Nó phải được ép buộc bằng luật. Các nền tảng lớn cần mở cửa cho nghiên cứu độc lập, cho phép xã hội kiểm chứng tác động của chúng với nhận thức công. Cũng như ta ghi nhãn thực phẩm, ta cần ghi nhãn nguồn gốc và động cơ của dữ liệu. Nếu chatbot tư vấn sức khỏe hay chính trị, người dùng phải biết nó được huấn luyện từ đâu, và có hay không “đối tác thương mại” đứng sau. Tiến bộ không có bằng chứng chỉ là niềm tin tín dụng. Và dân chủ không thể vận hành trên niềm tin mù quáng.
Tiếp theo là trách nhiệm. AI cần được thiết kế để phục vụ con người, chứ không phục tùng cổ đông. Giáo sư Ethan Zuckerman (University of Massachusetts at Amherst) gọi đó là “người được ủy thác kỹ thuật số” (“digital fiduciary”): một hệ thống thật sự làm việc cho người dùng, có thể kiểm tra, điều chỉnh, cải thiện công khai. Pháp đang thử hướng đi này với mô hình AI mã nguồn mở Mistral. Ấn Độ phát triển hạ tầng AI công để giảm chi phí giáo dục. Nếu muốn một tương lai kỹ thuật số phản ánh giá trị của mình, công dân không thể là người thuê – ta phải là chủ sở hữu.
Và cuối cùng, là giáo dục. Chúng ta cũng cần giáo dục trẻ em về động cơ thúc đẩy sự phát triển của AI, bắt đầu từ bậc tiểu học. Giống như việc trẻ em từng học được rằng giày thể thao không thể giúp chúng bay chỉ vì một người nổi tiếng nói vậy, giờ đây chúng cần hiểu cách trí tuệ nhân tạo có sức mạnh định hình những gì chúng nhìn thấy, mua sắm và tin tưởng – và ai là người hưởng lợi từ sức mạnh đó.
Mối nguy hiểm thực sự không phải là sự thao túng mà chính là sự dễ dàng đầy sức hấp dẫn của điều gì đó có vẻ chắc chắn tuyệt đối. Mỗi khi chúng ta chấp nhận một câu trả lời mà không đặt câu hỏi hoặc để thuật toán quyết định, chúng ta lại đánh mất một chút nhân tính của mình. Nếu chúng ta không làm gì cả, thế hệ tiếp theo sẽ lớn lên với suy nghĩ rằng điều này là bình thường. Làm sao chúng có thể tiếp tục phát triển nền dân chủ nếu chúng không bao giờ học cách chấp nhận sự không chắc chắn hoặc thách thức những điều mặc định?
Internet ban đầu không hoàn hảo, nhưng nó có lý tưởng: kết nối con người, phân phối lại tri thức và quyền lực. Nó cho phép ai cũng có thể xuất bản, phản biện, sáng tạo.
Nhưng giờ đây, hệ thống ngày nay lại đi ngược lại điều đó: thay vì cùng tham gia thì người ta chỉ dự đoán, và thay vì tìm kiếm, người ta có được sự chắc chắn. Nếu muốn bảo vệ điều làm nên con người, ta không cần thuật toán thông minh hơn – ta cần hệ thống giúp ta chọn lựa, hoài nghi, và suy nghĩ độc lập. Cũng như dân chủ cần cọ xát, công nghệ cũng cần sự kiểm chứng, cần quy định để buộc nó giải thích, chịu trách nhiệm và đối thoại. Bởi vì không có cọ xát, ta không còn dân chủ.
Tự do không nằm ở sự tiện lợi
Internet ngày nay cho ta ảo tưởng về vô vàn lựa chọn, nội dung, và câu trả lời. Nhưng đằng sau sự phong phú đó, các con đường thật sự đã bị định sẵn. Các lựa chọn đã được mặc định, các quyết định đã được đưa ra thay ta. Và ta bị dọa rằng nếu không chấp nhận, ta sẽ bị bỏ lại phía sau. Nhưng sự đa dạng mà không có quyền tự chủ thì không phải là tự do – mà là kiểm soát.
Cánh cửa đến tương lai vẫn chưa đóng. Chúng ta vẫn có thể đặt câu hỏi, không chỉ với máy móc mà với chính mình. Ta phải đòi hỏi công nghệ phục vụ con người, chứ không điều khiển con người. Ta sẵn sàng đánh đổi điều gì để được tiện lợi? Và điều gì tuyệt đối không được phép đem ra mua bán? Chúng ta vẫn có thể lựa chọn những hệ thống phục vụ con người thay vì kiểm soát một cách tinh vi; những hệ thống mang lại nhiều khả năng thay vì chỉ đơn thuần là hiệu quả. Nhân tính và nền dân chủ của chúng ta phụ thuộc vào điều đó.
_________
Phỏng dịch từ “The Validation Machines” của Raffi Krikorian, The Atlantic











