Những gì AI sinh tạo còn thiếu trầm trọng: lòng tự trọng, niềm tin, trách nhiệm và “cái tôi”
Mở đầu
Giữa đêm muộn trong phòng làm việc (vốn là tủ quần áo dạng walk-in), tôi trò chuyện mãi với AI sinh tạo. Đáng lẽ đang trong kỳ nghỉ Obon, vậy mà tôi lại thức khuya thiếu ngủ, liên tục ném câu hỏi cho ChatGPT và lúc thì reo lên sung sướng, lúc lại bực bội vì câu trả lời chệch hướng. Có khi tôi phải thốt lên “Đỉnh thật!!”, nhưng cũng nhiều lần phát cáu vì những phản hồi vô lý.
Lưu ý cho bạn đọc chưa quen với kỳ nghỉ Obon ở Nhật Bản: đây là dịp lễ tưởng nhớ tổ tiên diễn ra vào giữa tháng 8; nhiều công ty cho nhân viên nghỉ và các gia đình trở về quê để tham dự nghi lễ cúng viếng.
Sau những giờ như thế, tôi nhận ra một điều rất rõ.
— AI sinh tạo đang thiếu hụt một thứ gì đó mang tính chí tử.
Đó là lòng tự trọng, niềm tin và cảm thức trách nhiệm. Tôi vốn dị ứng với các khẩu hiệu kiểu “ý chí”, nên thật sự không muốn nhắc đến những từ này. Nhưng chẳng có cách diễn đạt nào tốt hơn. Dù thay đổi cách nói bao nhiêu lần, tôi vẫn quay lại với kết luận ấy. Và rồi tôi chợt cảm thấy mình vừa chạm tới cái lõi khiến AI sinh tạo không thể thay thế con người.
Những gì xã hội trông đợi ở một chuyên gia
Với người làm nghề, chúng ta chờ đợi không chỉ kiến thức hay kỹ năng, mà còn cả thái độ đạo đức.
Hãy thử nghĩ đến thợ lắp điều hòa được yêu cầu khoan một vị trí do khách hàng chỉ định. Nếu ngay phía sau là dầm chịu lực thì sao?
Không thể nói “khách yêu cầu nên tôi vô can”. Nếu làm hỏng dầm, cho dù pháp lý có thể tranh cãi, trách nhiệm đạo đức thì khó mà tránh khỏi. Khách hàng đâu cần người chỉ biết làm theo, họ mong được cảnh báo rủi ro và nghe đề xuất tốt hơn.
Đó chính là lòng tự trọng, niềm tin và trách nhiệm mà chúng ta kỳ vọng ở một chuyên gia.
Hiện trạng và giới hạn của AI sinh tạo
AI sinh tạo mô phỏng tri thức và ngôn ngữ rất thuần thục. Nhưng nó không thể tự nói “điều đó trái với lòng tự trọng của tôi nên tôi từ chối” hay “tôi phải đảm bảo an toàn cho đối phương”.
Hiện nay, khoảng trống ấy chủ yếu được lấp bằng chính sách sử dụng do nhà cung cấp dịch vụ đặt ra.
Việc đặt ranh giới rõ ràng — như cấm mục đích phi pháp hay nội dung người lớn — còn làm được. Nhưng các quyết định vùng xám, kiểu “có nên đưa ra gợi ý tốt hơn vì trách nhiệm nghề nghiệp hay không”, thì nó rất vụng về.
Người dùng có thể viết prompt chi tiết để bù đắp phần nào, song điều đó giống với “người đầu bếp nấu đúng công thức nhưng chẳng bao giờ nếm thử”.
Chỉ cần xuất hiện yếu tố không được ghi trong công thức, món ăn lập tức dở tệ mà nó vẫn bình thản bưng lên. Không có chuyện vội vã làm lại, cũng chẳng hề thấy xấu hổ.
Vì sao hiện tại vẫn cần con người (ít nhất là lúc này)
Bởi vậy, vào thời điểm này, chúng ta vẫn cần con người làm nhà tích hợp có trách nhiệm để điều phối AI.
Đạo đức nghề nghiệp, khung pháp lý, hướng dẫn phát triển lẫn giáo dục người dùng đều giả định rằng “AI chỉ là công cụ hỗ trợ con người”.
Nhưng đó cũng chỉ là tạm thời. Không loại trừ khả năng tương lai AI sẽ học cách mô phỏng trách nhiệm.
Các nghiên cứu và thử nghiệm trên thế giới
Nhiều hướng nghiên cứu nhằm trao cho AI “dáng vẻ trách nhiệm” đã bắt đầu.
- Đạo đức mô tả (Delphi): cho AI học điều thiện ác, nhưng vẫn vướng vấn đề thiên lệch và thiếu nhất quán.
- Meaningful Human Control: nguyên tắc thiết kế đảm bảo quyền kiểm soát cuối cùng ở con người, được bàn luận nhiều trong xe tự lái và lĩnh vực quân sự.
- Value Learning: suy ra giá trị từ hành vi và phản hồi của con người, nhằm giảm lệch pha đạo đức.
- Khung NIST AI RMF và tương tự: những nỗ lực thể chế hóa việc thiết kế AI có trách nhiệm.
Chúng mới chỉ ở giai đoạn mầm mống, nhưng biết đâu sẽ trở thành nền tảng để AI “đóng vai” trách nhiệm trong tương lai.
Mô phỏng trách nhiệm nghĩa là gì?
Hãy dừng lại và hỏi: “mô phỏng trách nhiệm” thực sự nghĩa là sao?
Ta có thể nhìn trách nhiệm qua hai tầng:
- Trách nhiệm về kết quả: chấp nhận hệ quả do hành vi của mình tạo ra.
- Trách nhiệm hồi đáp: sẵn sàng giải thích và đáp ứng kỳ vọng của người khác.
AI nhiều lắm chỉ theo dõi rủi ro, phát cảnh báo hoặc tăng cường tính minh bạch trong lời giải thích.
Nói cách khác, cái mà nó mô phỏng được chỉ là sự minh bạch và tự kiềm chế.
Dẫu vậy, cũng có khả năng trí thông minh và cảm thức trách nhiệm của con người chỉ là sản phẩm mô phỏng của bộ não.
Dù thế nào, tôi vẫn cảm nhận rõ khoảng cách lớn giữa AI hiện nay và những con người có lòng tự trọng, niềm tin, trách nhiệm. Khoảng cách ấy từ đâu mà ra?
Những yếu tố tạo nên khoảng cách giữa con người và AI
Tôi cho rằng ba yếu tố chính tạo ra khoảng cách đó.
-
Nỗi đau thể chất và xã hội Con người khi thất bại sẽ đau: mất mát kinh tế, bị chê trách, chịu dằn vặt tinh thần. Những trải nghiệm ấy khiến trách nhiệm trở nên hữu hình. AI có thể ghi nhận thất bại, nhưng không thể biến nó thành “nỗi đau” hướng về chính mình.
-
Tính nhất quán theo thời gian Con người buộc phải gánh hậu quả lời nói và hành động của mình, kể cả nhiều năm sau. AI thì có thể ngay khoảnh khắc kế tiếp nói ngược lại mà chẳng phải mang gánh nặng lâu dài.
-
Giá trị và bản sắc Con người có thể quả quyết “đây là niềm tin của tôi, tôi không nhượng bộ”. Điều đó gắn với xã hội, văn hóa và tạo nên bản sắc. AI không có bản sắc; nó đổi vai rất dễ dàng.
Thế nên cảm thức trách nhiệm của con người thường dày dặn hơn, nhờ nỗi đau, sự nhất quán và hệ giá trị nâng đỡ.
Nhưng cũng có những con người vô trách nhiệm.
Điều đó nghĩa là khác biệt không nằm ở “bản chất tuyệt đối” giữa người và máy, mà ở chỗ có hay không những trải nghiệm xã hội và cơ chế thuộc về giúp nâng đỡ trách nhiệm.
“Cái tôi” và trách nhiệm
Lúc này tôi nhớ đến câu “Tôi tư duy, nên tôi tồn tại” của Descartes.
Trách nhiệm không chỉ là tuân thủ quy tắc; nó được chống đỡ bởi những trải nghiệm thuộc về “tôi”.
Nỗi đau, hối hận, hoài nghi, bất an — chính các trải nghiệm nội tâm ấy tạo nên cảm giác “tôi đang gánh trách nhiệm”.
Nói cách khác, AI hiện nay không có “cái tôi”. Nó có chuỗi đầu vào - đầu ra, nhưng không có cơ chế để nỗi đau quay trở lại, không biết xấu hổ, không có danh dự hay lòng tự trọng. Vì thế chúng ta khó lòng thừa nhận ở nó trách nhiệm, và đôi khi nó trông giống hệt một người vô trách nhiệm vẫn bình thản đưa ra kết quả tệ.
Dĩ nhiên cũng có khả năng cảm thức trách nhiệm của con người chỉ là mô phỏng thần kinh. Tuy vậy, hiện tại khả năng mô phỏng trách nhiệm của AI vẫn chưa theo kịp những con người “biết làm việc”. Có lẽ câu hỏi cốt lõi là: mô phỏng ấy có vận hành được trong xã hội hay không?
Tổng kết và truy vấn
- AI sinh tạo thiếu lòng tự trọng, niềm tin và cảm thức trách nhiệm.
- Hiện nay chỉ con người, trong vai trò nhà tích hợp có trách nhiệm, mới bù đắp được khoảng trống đó.
- Khắp nơi đang thử nghiệm mô phỏng trách nhiệm, nhưng khi AI còn chưa có “cái tôi”, khoảng cách với những con người giỏi giang vẫn rất lớn.
- Tuy nhiên, cũng có thể cảm thức trách nhiệm của con người chỉ là mô phỏng.
Sau cùng, vấn đề lại hết sức giản dị.
Chúng ta có thể hiện thực hóa “nỗi đau” trong AI hay không?
Đó có lẽ là điều kiện tối thiểu cho trách nhiệm — và cho cả sự tồn tại của một “cái tôi”.
Câu trả lời vẫn chưa có.
Chừng nào còn giữ câu hỏi ấy, con đường bàn luận về tương lai chung giữa con người và AI vẫn mở.
Và đến khi câu trả lời xuất hiện — AI sẽ trở thành người bạn đồng hành bên cạnh ta, hay chính lúc ấy nó sẽ thay thế chúng ta?