Mọi người có nghĩ đến một ngày nào đó Trí tuệ nhân tạo (AI) sẽ đe doạ loài người ko?

  1. Công nghệ thông tin

  2. Trí tuệ nhân tạo

  3. Lập trình

AI ngày càng thông minh và thông minh đến mức IQ của chúng vượt cả con người. Liệu có khi nào AI sẽ phản lại loài người và biến chúng ta thành nô lệ không?

https://cdn.noron.vn/2021/06/25/tri-tue-nhan-tao-44680671762020-1624596102_1024.jpg
Từ khóa: 

công nghệ thông tin

,

trí tuệ nhân tạo

,

lập trình

Mọi người thường sợ cái viễn cảnh này, cũng là do phim viễn tưởng. Thực ra các mối nguy của AI nó khó hình dung và kỳ lạ hơn nhiều. Các bạn có thể xem video này rồi tìm hiểu thêm:

Ở đây mình chỉ bắt từ câu hỏi trên và phân tích một chút:

  1. Xã hội này ko có phải đơn giản kiểu 1 phe là (các) AI và một phe là loài người. Từ trước đến giờ đã bao giờ toàn bộ 7 tỷ người đoàn kết lại thành một tổ chức thống nhất chưa? Từ giờ cho đến lúc AI đạt đến human-level, người ta nên lo hơn về việc các quốc gia dùng AI để o ép nhau (robot AI chiến đấu, hacker AI, dùng AI để nghiên cứu vũ khí sinh học hoặc gen thượng đẳng, AI kiểm soát các nền tảng giao dịch, kinh tế, mạng xã hội, truyền thông, thị trường lao động...). Các dạng AI này ko cần đạt đến human-level, hay

    general AI
    , không cần có ý thức. Các task này hoàn toàn có thể được đặc tả một cách
    riêng biệt
    , và khi có tài nguyên tính toán đủ lớn (siêu máy tính, máy tính lượng tử, máy tính mô phỏng neuron -
    neuromophic computing
    ), dữ liệu đủ lớn (hoặc các phương pháp khai thác, xử lý, phân tích dữ liệu hiệu quả hơn), thì sẽ hoàn toàn khả thi.

  2. Khả năng AI tự chủ, có ý thức và tự hành động theo ý nó cũng có thể xảy ra, nếu các bạn liên tưởng đến Skynet trong phim Terminator (ông giám đốc đó bấm nút cho nó quyền tự hành động), nhưng có một giả định quan trọng ở đây:

  • Nếu nó có ý thức (nhận thức về chính nó và thế giới xung quanh nó, xuất hiện "cái tôi" bên trong nó), thì suy nghĩ của nó có dạng biểu diễn bằng ngôn ngữ tự nhiên như con người, và ta sợ rằng nó đi đến một suy nghĩ là "loài người cần phải bị tiêu diệt". Giả định này cực kỳ ngây thơ và khó xảy ra. Cũng như việc xác định khi nào thì một vật/một hệ thống trở thành có ý thức ko phải là một việc dễ dàng. Mình có viết một câu trả lời khá dài ở đây bàn về chuyện này.

  • Tình huống dễ xảy ra hơn là, ko phải nó tự hành động theo ý nó (ko có cái gì gọi là "ý nó" ở đây cả), mà là nó hành động một cách ngẫu nhiên hoàn toàn, không theo dõi được. Các AI hiện tại được huấn luyện để các hành động của nó tối ưu hóa một hàm mục tiêu nào đó. Cho dù mình có định nghĩa một hàm mục tiêu rõ ràng và chi tiết đến mức nào (đề xuất các chiến lược thương mại giúp tối đa hóa GDP của quốc gia, nhưng không được vi phạm một loạt các quy định giao thương sau đây...), thì cũng sẽ có những đề xuất của AI mà ta không lường được. Có nhiều luật lệ người ta hay mở ngoặc "bao gồm nhưng không giới hạn", là cũng chung một vấn đề này. (Trong giới nghiên cứu AGI, có một câu nguyện ngụ ngôn để chỉ vấn đề này: King Midas problem. Vua Midas được cho một điều ước, ông bèn ước biến tất cả mọi thứ ta chạm vào thành vàng. Ngay khi điều ước vừa được kích hoạt thì ông hối hận không kịp nữa, vì tất cả đồ ăn, quần áo, vợ con, và cuối cùng là cả ông cũng đều biến thành vàng). Vì vậy, có lẽ không ai có thể để cho AI tự hành động (truy cập, điều khiển trực tiếp vào một hệ thống quân sự nào đó chẳng hạn) mà không qua bước đề xuất với con người. Và lúc đó ta quay lại ý 1, điều ta nên thấy đáng sợ là con người dùng AI để chống lại nhau : ).

Trả lời

Mọi người thường sợ cái viễn cảnh này, cũng là do phim viễn tưởng. Thực ra các mối nguy của AI nó khó hình dung và kỳ lạ hơn nhiều. Các bạn có thể xem video này rồi tìm hiểu thêm:

Ở đây mình chỉ bắt từ câu hỏi trên và phân tích một chút:

  1. Xã hội này ko có phải đơn giản kiểu 1 phe là (các) AI và một phe là loài người. Từ trước đến giờ đã bao giờ toàn bộ 7 tỷ người đoàn kết lại thành một tổ chức thống nhất chưa? Từ giờ cho đến lúc AI đạt đến human-level, người ta nên lo hơn về việc các quốc gia dùng AI để o ép nhau (robot AI chiến đấu, hacker AI, dùng AI để nghiên cứu vũ khí sinh học hoặc gen thượng đẳng, AI kiểm soát các nền tảng giao dịch, kinh tế, mạng xã hội, truyền thông, thị trường lao động...). Các dạng AI này ko cần đạt đến human-level, hay

    general AI
    , không cần có ý thức. Các task này hoàn toàn có thể được đặc tả một cách
    riêng biệt
    , và khi có tài nguyên tính toán đủ lớn (siêu máy tính, máy tính lượng tử, máy tính mô phỏng neuron -
    neuromophic computing
    ), dữ liệu đủ lớn (hoặc các phương pháp khai thác, xử lý, phân tích dữ liệu hiệu quả hơn), thì sẽ hoàn toàn khả thi.

  2. Khả năng AI tự chủ, có ý thức và tự hành động theo ý nó cũng có thể xảy ra, nếu các bạn liên tưởng đến Skynet trong phim Terminator (ông giám đốc đó bấm nút cho nó quyền tự hành động), nhưng có một giả định quan trọng ở đây:

  • Nếu nó có ý thức (nhận thức về chính nó và thế giới xung quanh nó, xuất hiện "cái tôi" bên trong nó), thì suy nghĩ của nó có dạng biểu diễn bằng ngôn ngữ tự nhiên như con người, và ta sợ rằng nó đi đến một suy nghĩ là "loài người cần phải bị tiêu diệt". Giả định này cực kỳ ngây thơ và khó xảy ra. Cũng như việc xác định khi nào thì một vật/một hệ thống trở thành có ý thức ko phải là một việc dễ dàng. Mình có viết một câu trả lời khá dài ở đây bàn về chuyện này.

  • Tình huống dễ xảy ra hơn là, ko phải nó tự hành động theo ý nó (ko có cái gì gọi là "ý nó" ở đây cả), mà là nó hành động một cách ngẫu nhiên hoàn toàn, không theo dõi được. Các AI hiện tại được huấn luyện để các hành động của nó tối ưu hóa một hàm mục tiêu nào đó. Cho dù mình có định nghĩa một hàm mục tiêu rõ ràng và chi tiết đến mức nào (đề xuất các chiến lược thương mại giúp tối đa hóa GDP của quốc gia, nhưng không được vi phạm một loạt các quy định giao thương sau đây...), thì cũng sẽ có những đề xuất của AI mà ta không lường được. Có nhiều luật lệ người ta hay mở ngoặc "bao gồm nhưng không giới hạn", là cũng chung một vấn đề này. (Trong giới nghiên cứu AGI, có một câu nguyện ngụ ngôn để chỉ vấn đề này: King Midas problem. Vua Midas được cho một điều ước, ông bèn ước biến tất cả mọi thứ ta chạm vào thành vàng. Ngay khi điều ước vừa được kích hoạt thì ông hối hận không kịp nữa, vì tất cả đồ ăn, quần áo, vợ con, và cuối cùng là cả ông cũng đều biến thành vàng). Vì vậy, có lẽ không ai có thể để cho AI tự hành động (truy cập, điều khiển trực tiếp vào một hệ thống quân sự nào đó chẳng hạn) mà không qua bước đề xuất với con người. Và lúc đó ta quay lại ý 1, điều ta nên thấy đáng sợ là con người dùng AI để chống lại nhau : ).

Nếu AI được lập trình để tiêu diệt loài người thì cũng có khả năng

Chả cần cái ngày nào đó xa vời vợi :v mà ngày nay ai nó đã đe dọa đến việc làm của không ít người rồi :v

https://cdn.noron.vn/2021/06/25/robot1483535228146-150730754-1624615075.jpg

ko . Vì con người tạo ra AI thì phá được . chỉ có lòng người ghen ghét đố kị mới hủy hoại cuộc sống . dùng sản phẩm hủy hoại lẫn nhau

Theo ý kiến cá nhân mình ngày đó còn rất xa để có thể xảy ra và chúng ta có thể kiểm soát được nó tốt. Chúng ta có thể dạy chúng những thư cơ bản , như các cong việc cơ bản và thô sơ hàng ngày. Hạn chế chúng tiếp cận với những kiến thức cao cấp hoặc nắm giữ vai trò quan trọng của công nghệ. Áp cho chúng một vòng đời nhất định. Mình nghĩ thứ đáng lo ngại hơn là nhân bản vô tính