Cách con người sẽ bảo vệ chống lại Siêu trí tuệ nhân tạo: Tương lai của trí tuệ nhân tạo P5
10/09/2023Năm đó là 65.000 năm trước Công nguyên, và là một Thylacoleo, bạn và đồng loại của bạn là những thợ săn vĩ đại của Úc cổ đại. Bạn đi lang thang trên đất liền một cách tự do và sống cân bằng với những kẻ săn mồi và con mồi chiếm giữ vùng đất bên cạnh bạn. Các mùa mang lại sự thay đổi, nhưng địa vị của bạn trong vương quốc động vật vẫn không bị thách thức miễn là bạn và tổ tiên của bạn có thể nhớ. Rồi một ngày, những người mới xuất hiện. Có tin đồn rằng chúng đến từ bức tường nước khổng lồ, nhưng những sinh vật này có vẻ thoải mái hơn khi sống trên cạn. Bạn phải tự mình nhìn thấy những sinh vật này. Phải mất vài ngày, nhưng cuối cùng bạn đã đến được bờ biển. Ngọn lửa trên bầu trời đang lặn, thời điểm hoàn hảo để theo dõi những sinh vật này, thậm chí có thể thử ăn một cái để xem chúng có vị như thế nào. Bạn phát hiện ra một. Nó đi bằng hai chân và không có lông. Nó trông yếu ớt. Không ấn tượng. Hầu như không đáng để sợ hãi mà nó gây ra trong vương quốc. Bạn bắt đầu cẩn thận thực hiện cách tiếp cận của mình khi màn đêm xua đuổi ánh sáng. Bạn đang tiến gần hơn. Sau đó, bạn đóng băng. Những tiếng động lớn vang lên và sau đó bốn người nữa xuất hiện từ khu rừng phía sau nó. Có bao nhiêu? Sinh vật đi theo những người khác vào hàng cây, và bạn đi theo. Và bạn càng làm, bạn càng nghe thấy nhiều âm thanh kỳ lạ cho đến khi bạn phát hiện ra nhiều hơn những sinh vật này. Bạn đi theo từ xa khi họ ra khỏi rừng vào một khoảng trống bên bờ. Có rất nhiều trong số họ. Nhưng quan trọng hơn, tất cả họ đều bình tĩnh ngồi quanh đống lửa. Bạn đã thấy những đám cháy này trước đây. Vào mùa nóng, ngọn lửa trên bầu trời đôi khi sẽ ghé thăm đất liền và thiêu rụi toàn bộ khu rừng. Những sinh vật này, mặt khác, bằng cách nào đó họ đã kiểm soát nó. Những loại sinh vật có thể sở hữu sức mạnh như vậy? Bạn nhìn vào khoảng cách. Nhiều hơn nữa đang đến qua bức tường nước khổng lồ. Bạn lùi lại một bước. Những sinh vật này không giống như những sinh vật khác trong vương quốc. Họ là một cái gì đó hoàn toàn mới. Bạn quyết định rời đi và cảnh báo người thân của bạn. Nếu số lượng của họ phát triển quá lớn, ai biết điều gì có thể xảy ra. Người ta tin rằng Thylacoleo đã tuyệt chủng một thời gian tương đối ngắn sau khi con người đến, cùng với phần lớn các megafauna khác trên lục địa Úc. Không có kẻ săn mồi động vật có vú đỉnh cao nào khác thay thế vị trí của nó - đó là trừ khi bạn tính con người trong danh mục đó. Phát huy câu chuyện ngụ ngôn này là trọng tâm của chương loạt bài này: Liệu một siêu trí tuệ nhân tạo (ASI) trong tương lai sẽ biến tất cả chúng ta thành pin và sau đó cắm chúng ta vào Ma trận hay con người sẽ tìm ra cách để tránh trở thành nạn nhân của một âm mưu khoa học viễn tưởng, AI ngày tận thế? Cho đến nay trong loạt bài của chúng tôi về Tương lai của Trí tuệ nhân tạo, chúng tôi đã khám phá tất cả các loại AI, bao gồm cả tiềm năng tích cực của một dạng AI cụ thể, ASI: một sinh vật nhân tạo có trí thông minh trong tương lai sẽ khiến chúng ta trông giống như những con kiến khi so sánh. Nhưng ai có thể nói rằng một sinh vật thông minh như thế này sẽ chấp nhận nhận mệnh lệnh từ con người mãi mãi. Chúng ta sẽ làm gì nếu mọi thứ đi về phía nam? Làm thế nào chúng ta sẽ bảo vệ chống lại một ASI giả mạo? Trong chương này, chúng ta sẽ cắt bỏ sự cường điệu không có thật - ít nhất là vì nó liên quan đến mối nguy hiểm 'mức độ tuyệt chủng của con người' - và tập trung vào các lựa chọn tự vệ thực tế có sẵn cho các chính phủ trên thế giới. Chúng ta có thể dừng tất cả các nghiên cứu sâu hơn về một siêu trí tuệ nhân tạo không? Với những rủi ro tiềm ẩn mà ASI có thể gây ra cho nhân loại, câu hỏi rõ ràng đầu tiên cần đặt ra là: Chúng ta có thể dừng tất cả các nghiên cứu sâu hơn về AI không? Hoặc ít nhất là cấm bất kỳ nghiên cứu nào có thể khiến chúng ta tiến gần đến việc tạo ra ASI một cách nguy hiểm? Câu trả lời ngắn gọn: Không. Câu trả lời dài: Hãy nhìn vào những người chơi khác nhau tham gia ở đây. Trên cấp độ nghiên cứu hiện nay, có quá nhiều nhà nghiên cứu AI từ quá nhiều công ty khởi nghiệp, công ty và trường đại học trên khắp thế giới. Nếu một công ty hoặc quốc gia quyết định hạn chế nỗ lực nghiên cứu AI của họ, họ sẽ chỉ đơn giản là tiếp tục ở nơi khác. Trong khi đó, các công ty có giá trị nhất hành tinh đang kiếm tiền từ việc ứng dụng hệ thống AI vào các doanh nghiệp cụ thể của họ. Yêu cầu họ dừng hoặc hạn chế sự phát triển của các công cụ AI cũng giống như yêu cầu họ dừng hoặc hạn chế sự phát triển trong tương lai của họ. Về mặt tài chính, điều này sẽ đe dọa hoạt động kinh doanh lâu dài của họ. Về mặt pháp lý, các tập đoàn có trách nhiệm ủy thác để liên tục xây dựng giá trị cho các bên liên quan của họ; Điều đó có nghĩa là bất kỳ hành động nào hạn chế sự tăng trưởng của giá trị đó đều có thể dẫn đến một vụ kiện. Và nếu bất kỳ chính trị gia nào cố gắng hạn chế nghiên cứu AI, thì các tập đoàn khổng lồ này sẽ chỉ trả phí vận động hành lang cần thiết để thay đổi suy nghĩ của họ hoặc suy nghĩ của các đồng nghiệp của họ. Đối với chiến đấu, giống như những kẻ khủng bố và chiến binh tự do trên khắp thế giới đã sử dụng chiến thuật du kích để chiến đấu chống lại quân đội được tài trợ tốt hơn, các quốc gia nhỏ hơn sẽ có động lực sử dụng AI như một lợi thế chiến thuật tương tự chống lại các quốc gia lớn hơn có thể có một số lợi thế quân sự. Tương tự như vậy, đối với các quân đội hàng đầu, như Mỹ, Nga và Trung Quốc, việc xây dựng một ASI quân sự ngang bằng với việc có một kho vũ khí hạt nhân trong túi sau của bạn. Nói cách khác, tất cả quân đội sẽ tiếp tục tài trợ cho AI chỉ để duy trì sự phù hợp trong tương lai. Còn các chính phủ thì sao? Thành thật mà nói, hầu hết các chính trị gia ngày nay (2018) đều mù chữ về công nghệ và ít hiểu biết về AI là gì hoặc tiềm năng tương lai của nó - điều này khiến họ dễ dàng bị thao túng bởi lợi ích của công ty. Và ở cấp độ toàn cầu, hãy xem xét việc thuyết phục các chính phủ trên thế giới ký Thỏa thuận Paris năm 2015 để giải quyết biến đổi khí hậu khó khăn như thế nào và một khi đã ký, nhiều nghĩa vụ thậm chí không ràng buộc. Không chỉ vậy, biến đổi khí hậu là một vấn đề mà con người đang gặp phải trên toàn cầu thông qua các sự kiện thời tiết ngày càng thường xuyên và khắc nghiệt. Bây giờ, khi nói về việc đồng ý với các giới hạn về AI, đây là một vấn đề phần lớn vô hình và hầu như không thể hiểu được đối với công chúng, vì vậy chúc may mắn khi nhận được sự ủng hộ cho bất kỳ loại 'Thỏa thuận Paris' nào để hạn chế AI. Nói cách khác, có quá nhiều lợi ích nghiên cứu AI cho mục đích riêng của họ để ngăn chặn bất kỳ nghiên cứu nào cuối cùng có thể dẫn đến ASI. Chúng ta có thể nhốt một siêu trí tuệ nhân tạo không? Câu hỏi hợp lý tiếp theo là chúng ta có thể lồng hoặc kiểm soát ASI một khi chúng ta chắc chắn tạo ra một ASI không? Câu trả lời ngắn gọn: Một lần nữa, không. Câu trả lời dài: Công nghệ không thể bị kìm hãm. Đối với một, chỉ cần xem xét hàng ngàn đến hàng triệu nhà phát triển web và nhà khoa học máy tính trên thế giới, những người liên tục tung ra phần mềm mới hoặc phiên bản mới của phần mềm hiện có. Chúng ta có thể thành thật nói rằng mọi bản phát hành phần mềm của họ đều không có lỗi 100% không? Những lỗi này là những gì tin tặc chuyên nghiệp sử dụng để đánh cắp thông tin thẻ tín dụng của hàng triệu người hoặc bí mật được phân loại của các quốc gia và đây là những tin tặc của con người. Đối với một ASI, giả sử nó có động lực để thoát khỏi lồng kỹ thuật số của mình, thì quá trình tìm lỗi và đột phá phần mềm sẽ rất dễ dàng. Nhưng ngay cả khi một nhóm nghiên cứu AI đã tìm ra cách để đóng hộp ASI, điều đó không có nghĩa là 1.000 nhóm tiếp theo cũng sẽ tìm ra nó hoặc được khuyến khích sử dụng nó. Sẽ mất hàng tỷ đô la và thậm chí hàng thập kỷ để tạo ra một ASI. Các tập đoàn hoặc chính phủ đầu tư loại tiền và thời gian này sẽ mong đợi lợi tức đầu tư đáng kể của họ. Và để một ASI cung cấp loại lợi nhuận đó - cho dù đó là để chơi trên thị trường chứng khoán hay phát minh ra một sản phẩm tỷ đô mới hoặc lên kế hoạch chiến lược chiến thắng để chống lại một đội quân lớn hơn - nó sẽ cần truy cập miễn phí vào một bộ dữ liệu khổng lồ hoặc thậm chí chính Internet để tạo ra những lợi nhuận đó. Và một khi ASI có quyền truy cập vào các mạng của thế giới, không có gì đảm bảo rằng chúng ta có thể nhét nó trở lại lồng của nó. Một siêu trí tuệ nhân tạo có thể học cách trở nên tốt không? Ngay bây giờ, các nhà nghiên cứu AI không lo lắng về việc ASI trở thành ác quỷ. Toàn bộ trò chơi khoa học viễn tưởng xấu xa, AI chỉ là con người nhân hóa một lần nữa. Một ASI trong tương lai sẽ không phải là thiện hay ác - khái niệm của con người - chỉ đơn giản là phi đạo đức. Giả định tự nhiên sau đó là với bảng đạo đức trống rỗng này, các nhà nghiên cứu AI có thể lập trình thành các mã đạo đức ASI đầu tiên phù hợp với chính chúng ta để cuối cùng nó không giải phóng Kẻ hủy diệt trên chúng ta hoặc biến tất cả chúng ta thành pin Ma trận. Nhưng giả định này đưa ra một giả định thứ cấp rằng các nhà nghiên cứu AI cũng là chuyên gia về đạo đức, triết học và tâm lý học. Trong thực tế, hầu hết không. Theo nhà tâm lý học nhận thức và tác giả, Steven Pinker, thực tế này có nghĩa là nhiệm vụ của đạo đức mã hóa có thể đi sai theo nhiều cách khác nhau. Ví dụ, ngay cả những nhà nghiên cứu AI có ý định tốt nhất cũng có thể vô tình mã hóa vào các ASI này các quy tắc đạo đức được suy nghĩ kém rằng trong một số tình huống nhất định có thể khiến ASI hành động như một kẻ sát nhân. Tương tự như vậy, có khả năng tương đương là một nhà nghiên cứu AI lập trình các quy tắc đạo đức bao gồm các thành kiến bẩm sinh của nhà nghiên cứu. Ví dụ, ASI sẽ hành xử như thế nào nếu được xây dựng với đạo đức bắt nguồn từ quan điểm bảo thủ và tự do, hoặc từ truyền thống Phật giáo so với Kitô giáo hoặc Hồi giáo? Tôi nghĩ bạn thấy vấn đề ở đây: Không có tập hợp đạo đức phổ quát của con người. Nếu chúng ta muốn ASI của chúng ta hành động theo một quy tắc đạo đức, nó sẽ đến từ đâu? Chúng tôi bao gồm và loại trừ những quy tắc nào? Ai quyết định? Hoặc giả sử rằng các nhà nghiên cứu AI này tạo ra một ASI hoàn toàn phù hợp với các chuẩn mực và luật văn hóa hiện đại ngày nay. Sau đó, chúng tôi sử dụng ASI này để giúp các bộ máy quan liêu liên bang, tiểu bang / tỉnh và thành phố hoạt động hiệu quả hơn và thực thi tốt hơn các quy tắc và luật này (nhân tiện, một trường hợp sử dụng có khả năng cho ASI). Chà, điều gì xảy ra khi văn hóa của chúng ta thay đổi? Hãy tưởng tượng một ASI được tạo ra bởi Giáo hội Công giáo ở đỉnh cao quyền lực của nó trong thời Trung cổ châu Âu (1300-1400) với mục tiêu giúp nhà thờ quản lý dân số và đảm bảo tuân thủ nghiêm ngặt giáo điều tôn giáo thời bấy giờ. Nhiều thế kỷ sau, liệu phụ nữ có được hưởng các quyền giống như họ ngày nay không? Liệu các nhóm thiểu số có được bảo vệ? Tự do ngôn luận sẽ được thúc đẩy? Liệu sự tách biệt giữa nhà thờ và nhà nước có được thực thi không? Khoa học hiện đại? Nói cách khác, chúng ta có muốn giam cầm tương lai vào đạo đức và phong tục ngày nay không? Một cách tiếp cận khác là một cách tiếp cận được chia sẻ bởi Colin Allen, đồng tác giả của cuốn sách, Moral Machines: Teaching Robots Right From Wrong. Thay vì cố gắng mã hóa các quy tắc đạo đức cứng nhắc, chúng ta có ASI học đạo đức và đạo đức chung theo cách tương tự như con người, thông qua kinh nghiệm và tương tác với người khác. Tuy nhiên, vấn đề ở đây là nếu các nhà nghiên cứu AI không chỉ tìm ra cách dạy ASI các chuẩn mực văn hóa và đạo đức hiện đại của chúng ta, mà còn làm thế nào để thích nghi với các chuẩn mực văn hóa mới khi chúng phát sinh (một cái gì đó gọi là 'chuẩn mực gián tiếp'), thì ASI này quyết định phát triển sự hiểu biết về các chuẩn mực văn hóa và đạo đức trở nên không thể đoán trước. Và đó là thách thức. Một mặt, các nhà nghiên cứu AI có thể thử mã hóa các tiêu chuẩn hoặc quy tắc đạo đức nghiêm ngặt vào ASI để thử và kiểm soát hành vi của nó, nhưng có nguy cơ hậu quả không lường trước được đưa ra từ mã hóa cẩu thả, thiên vị không chủ ý và các chuẩn mực xã hội mà một ngày nào đó có thể trở nên lỗi thời. Mặt khác, chúng ta có thể cố gắng đào tạo ASI học cách hiểu đạo đức và đạo đức của con người theo cách ngang bằng hoặc vượt trội so với sự hiểu biết của chính chúng ta và sau đó hy vọng rằng nó có thể phát triển chính xác sự hiểu biết về đạo đức và đạo đức khi xã hội loài người tiến bộ trong những thập kỷ và thế kỷ tới. Dù bằng cách nào, bất kỳ nỗ lực nào để sắp xếp các mục tiêu của ASI với mục tiêu của chúng ta đều có rất nhiều rủi ro. Điều gì sẽ xảy ra nếu những kẻ xấu cố tình tạo ra siêu trí tuệ nhân tạo xấu xa? Với dòng suy nghĩ đã được đề cập cho đến nay, đó là một câu hỏi công bằng để đặt câu hỏi liệu một nhóm khủng bố hoặc quốc gia bất hảo có thể tạo ra một ASI 'xấu xa' cho mục đích riêng của họ hay không. Điều này là rất có thể, đặc biệt là sau khi nghiên cứu liên quan đến việc tạo ra một ASI trở nên có sẵn trực tuyến bằng cách nào đó. Nhưng như đã gợi ý trước đó, chi phí và chuyên môn liên quan đến việc tạo ra ASI đầu tiên sẽ rất lớn, có nghĩa là ASI đầu tiên có thể sẽ được tạo ra bởi một tổ chức được kiểm soát hoặc chịu ảnh hưởng nặng nề bởi một quốc gia phát triển, có thể là Mỹ, Trung Quốc và Nhật Bản (Hàn Quốc và một trong những quốc gia EU hàng đầu là những cú sút xa). Tất cả các quốc gia này, trong khi là đối thủ cạnh tranh, mỗi quốc gia đều có động lực kinh tế mạnh mẽ để duy trì trật tự thế giới - ASI mà họ tạo ra sẽ phản ánh mong muốn đó, ngay cả khi thúc đẩy lợi ích của các quốc gia mà họ liên kết. Trên hết, trí thông minh và sức mạnh lý thuyết của ASI tương đương với sức mạnh tính toán mà nó có quyền truy cập, có nghĩa là ASI từ các quốc gia phát triển (có thể mua một loạt siêu máy tính trị giá hàng tỷ đô la) sẽ có lợi thế rất lớn so với ASI từ các quốc gia nhỏ hơn hoặc các nhóm tội phạm độc lập. Ngoài ra, ASI phát triển thông minh hơn, nhanh hơn theo thời gian. Vì vậy, với sự khởi đầu thuận lợi này, kết hợp với khả năng tiếp cận nhiều hơn với sức mạnh tính toán thô, nếu một tổ chức / quốc gia bóng tối tạo ra một ASI nguy hiểm, ASI từ các quốc gia phát triển sẽ giết chết nó hoặc nhốt nó. (Dòng suy nghĩ này cũng là lý do tại sao một số nhà nghiên cứu AI tin rằng sẽ chỉ có một ASI trên hành tinh, vì ASI đầu tiên sẽ có một khởi đầu thuận lợi trên tất cả các ASI thành công đến mức nó có thể coi ASI trong tương lai là mối đe dọa bị giết trước. Đây là một lý do khác tại sao các quốc gia đang tài trợ cho nghiên cứu tiếp tục về AI, chỉ trong trường hợp nó trở thành một cuộc cạnh tranh 'vị trí đầu tiên hoặc không có gì'.) Trí thông minh ASI sẽ không tăng tốc hoặc bùng nổ như chúng ta nghĩ. Chúng tôi không thể ngăn ASI được tạo. Chúng tôi không thể kiểm soát nó hoàn toàn. Chúng tôi không thể chắc chắn rằng nó sẽ luôn luôn hành động phù hợp với phong tục chung của chúng tôi. Geez, chúng ta bắt đầu nghe giống như cha mẹ trực thăng ở đây! Nhưng điều tách biệt nhân loại khỏi cha mẹ bảo vệ quá mức điển hình của bạn là chúng ta đang sinh ra một sinh vật có trí thông minh sẽ phát triển vượt xa chúng ta. (Và không, nó không giống như khi cha mẹ bạn yêu cầu bạn sửa máy tính của họ bất cứ khi nào bạn về thăm nhà.) Trong các chương trước của loạt bài về tương lai của trí tuệ nhân tạo này, chúng tôi đã khám phá lý do tại sao các nhà nghiên cứu AI nghĩ rằng trí thông minh của ASI sẽ phát triển ngoài tầm kiểm soát. Nhưng ở đây, chúng ta sẽ phá vỡ bong bóng đó ... Loại. Bạn thấy đấy, trí thông minh không chỉ tự tạo ra từ không khí loãng, nó được phát triển thông qua trải nghiệm được định hình bởi các kích thích bên ngoài. Nói cách khác, chúng ta có thể lập trình một AI với tiềm năng trở nên siêu thông minh, nhưng trừ khi chúng ta tải lên nó hàng tấn dữ liệu hoặc cung cấp cho nó quyền truy cập Internet không hạn chế hoặc thậm chí chỉ cung cấp cho nó một cơ thể robot, nó sẽ không học được gì để đạt được tiềm năng đó. Và ngay cả khi nó có quyền truy cập vào một hoặc nhiều kích thích, kiến thức hoặc trí thông minh liên quan đến nhiều thứ hơn là chỉ thu thập dữ liệu, nó liên quan đến phương pháp khoa học - thực hiện quan sát, hình thành câu hỏi, giả thuyết, tiến hành thí nghiệm, đưa ra kết luận, rửa sạch và lặp lại mãi mãi. Đặc biệt nếu những thí nghiệm này liên quan đến những thứ vật lý hoặc quan sát con người, kết quả của mỗi thí nghiệm có thể mất vài tuần, vài tháng hoặc nhiều năm để thu thập. Điều này thậm chí không tính đến tiền và tài nguyên thô cần thiết để thực hiện các thí nghiệm này, đặc biệt nếu chúng liên quan đến việc xây dựng một kính viễn vọng hoặc nhà máy mới. Nói cách khác, vâng, một ASI sẽ học nhanh chóng, nhưng trí thông minh không phải là phép thuật. Bạn không thể chỉ kết nối một ASI với một siêu máy tính và mong rằng nó sẽ biết tất cả. Sẽ có những giới hạn về việc thu thập dữ liệu của ASI, do đó, sự phát triển của trí thông minh ASI cũng sẽ bị hạn chế. Những ràng buộc này sẽ cho phép con người có thời gian để thiết lập các biện pháp kiểm soát cần thiết đối với ASI, nếu nó bắt đầu hành động không phù hợp với mục tiêu của con người. Một siêu trí tuệ nhân tạo chỉ nguy hiểm nếu nó bước ra thế giới thực. Điều này có nghĩa là ASI cần một hình thức vật lý để tồn tại và hoạt động. Và bất kỳ thứ gì có hình dạng vật lý đều có thể bị kiểm soát. Đầu tiên, để ASI đạt được tiềm năng thông minh của nó, nó không thể chỉ được đặt trong một cơ thể robot duy nhất, vì cơ thể này sẽ hạn chế tiềm năng tính toán của nó. Điều này là lý do tại sao cơ thể robot sẽ phù hợp hơn với AGI hoặc trí tuệ nhân tạo nói chung, như đã được giải thích trong các bài viết trước, như Dữ liệu từ Star Trek hoặc R2D2 từ Star Wars. Những sinh vật thông minh và có khả năng, giống như con người, sẽ có giới hạn về mức độ thông minh mà họ có thể đạt được. Điều này có nghĩa là ASI trong tương lai có thể tồn tại bên trong một siêu máy tính hoặc mạng siêu máy tính được đặt trong các khu phức hợp xây dựng lớn. Nếu ASI trở nên nguy hiểm, con người có thể tắt nguồn cho các tòa nhà này, cắt chúng khỏi Internet hoặc thậm chí phá hủy chúng hoàn toàn. Điều này có thể đòi hỏi chi phí, nhưng nó hoàn toàn khả thi. Nhưng sau đó bạn có thể hỏi, các ASI có thể tự sao chép hoặc tự sao lưu không? Có, nhưng kích thước dữ liệu của các ASI này có thể rất lớn đến mức chỉ các tập đoàn hoặc chính phủ lớn mới có thể xử lý chúng, điều này làm cho việc săn lùng chúng trở nên dễ dàng hơn. Một siêu trí tuệ nhân tạo có thể gây ra một cuộc chiến tranh hạt nhân hoặc bệnh dịch mới? Tại thời điểm này, bạn có thể nghĩ lại tất cả các chương trình và phim khoa học viễn tưởng ngày tận thế mà bạn đã xem khi lớn lên và nghĩ rằng những ASI này không ở bên trong siêu máy tính của họ, họ đã gây thiệt hại thực sự trong thế giới thực! Nhưng thực tế là, các ASI này không tồn tại trong cả hai. Họ có một hình thức vật lý. Và bất cứ thứ gì có hình dạng vật lý đều có thể được kiểm soát. Trước hết, để ASI đạt được tiềm năng thông minh của nó, nó không thể được đặt bên trong một cơ thể robot duy nhất, vì cơ thể này sẽ hạn chế tiềm năng phát triển tính toán của nó. (Đây là lý do tại sao cơ thể robot sẽ phù hợp hơn với AGI hoặc trí tuệ nhân tạo nói chung được giải thích trong các bài viết trước, như Dữ liệu từ Star Trek hoặc R2D2 từ Star Wars. Những sinh vật thông minh và có khả năng, như con người, sẽ có giới hạn về mức độ thông minh mà họ có thể đạt được.) Điều này có nghĩa là những ASI trong tương lai này rất có thể sẽ tồn tại bên trong một siêu máy tính hoặc mạng siêu máy tính được đặt trong các khu phức hợp xây dựng lớn. Nếu ASI quay gót chân, con người có thể tắt nguồn cho các tòa nhà này, cắt chúng khỏi Internet hoặc chỉ đánh bom hoàn toàn các tòa nhà này. Đắt, nhưng có thể làm được. Nhưng sau đó bạn có thể hỏi, các ASI này có thể tự sao chép hoặc tự sao lưu không? Có, nhưng kích thước dữ liệu của các ASI này có thể sẽ lớn đến mức các máy chủ duy nhất có thể xử lý chúng thuộc về các tập đoàn hoặc chính phủ lớn, có nghĩa là chúng sẽ không khó để săn lùng. Một siêu trí tuệ nhân tạo có thể châm ngòi cho một cuộc chiến tranh hạt nhân hoặc bệnh dịch hạch mới? Tại thời điểm này, bạn có thể nghĩ lại tất cả các chương trình và phim khoa học viễn tưởng ngày tận thế mà bạn đã xem khi lớn lên và nghĩ rằng những ASI này không ở bên trong siêu máy tính của họ, họ đã gây thiệt hại thực sự trong thế giới thực! Chà, hãy chia nhỏ những điều này. Ví dụ, điều gì sẽ xảy ra nếu một ASI đe dọa thế giới thực bằng cách biến thành một cái gì đó giống như Skynet ASI từ loạt phim, Kẻ hủy diệt. Trong trường hợp này, ASI sẽ cần phải lừa toàn bộ tổ hợp công nghiệp quân sự từ một quốc gia tiên tiến để xây dựng các nhà máy khổng lồ có thể tạo ra hàng triệu robot không người lái sát thủ để thực hiện mệnh lệnh xấu xa của mình. Trong thời đại ngày nay, đó là một sự kéo dài. Các khả năng khác bao gồm ASI đe dọa con người bằng chiến tranh hạt nhân và vũ khí sinh học. Ví dụ, ASI bằng cách nào đó thao túng các nhà khai thác hoặc hack vào mã phóng chỉ huy kho vũ khí hạt nhân của một quốc gia tiên tiến và phát động một cuộc tấn công đầu tiên, buộc các quốc gia đối lập phải tấn công lại bằng các lựa chọn hạt nhân của riêng họ (lại là một lần nữa, lặp lại cốt truyện Terminator). Hoặc nếu ASI xâm nhập vào phòng thí nghiệm dược phẩm, làm xáo trộn quy trình sản xuất và đầu độc hàng triệu viên thuốc y tế hoặc gây ra sự bùng phát chết người của một số siêu vi rút. Trước hết, lựa chọn hạt nhân đã được loại bỏ. Các siêu máy tính hiện đại và tương lai thường được xây dựng ở gần các trung tâm có ảnh hưởng trong bất kỳ quốc gia nào, điều này đồng nghĩa với việc chúng trở thành mục tiêu đầu tiên trong bất kỳ cuộc chiến tranh nào. Ngay cả khi các siêu máy tính ngày nay thu nhỏ kích thước của máy tính để bàn, các ASI này vẫn sẽ có sự hiện diện vật lý, điều đó có nghĩa là để tồn tại và phát triển, chúng cần truy cập liên tục vào dữ liệu, sức mạnh tính toán, điện và các nguyên liệu thô khác, tất cả đều sẽ bị suy giảm nghiêm trọng sau một cuộc chiến tranh hạt nhân toàn cầu. (Công bằng mà nói, nếu ASI được tạo ra mà không có 'bản năng sinh tồn', thì mối đe dọa hạt nhân này là một mối nguy hiểm rất thực tế.) Điều này có nghĩa là - một lần nữa, giả sử ASI được lập trình để tự bảo vệ mình - rằng nó sẽ tích cực hoạt động để tránh bất kỳ sự cố hạt nhân thảm khốc nào. Giống như học thuyết Hủy diệt được đảm bảo lẫn nhau (MAD), nhưng được áp dụng cho AI. Và trong trường hợp thuốc bị nhiễm độc, có thể vài trăm người sẽ chết, nhưng các hệ thống an toàn dược phẩm hiện đại sẽ phát hiện ra các chai thuốc bị nhiễm độc và đưa chúng ra khỏi kệ trong vòng vài ngày. Trong khi đó, các biện pháp kiểm soát dịch bệnh hiện đại rất tinh vi và ngày càng tốt hơn qua từng năm; đợt bùng phát lớn cuối cùng, vụ dịch Ebola Tây Phi năm 2014, kéo dài không quá vài tháng ở hầu hết các quốc gia và chỉ dưới ba năm ở các nước kém phát triển nhất. Vì vậy, nếu may mắn, một ASI có thể gây ra một số thiệt hại đáng kể, nhưng nó sẽ không chấm dứt nhân loại trừ khi chúng ta tích cực giúp nó làm như vậy. Bảo vệ chống lại siêu trí tuệ nhân tạo giả mạo Đến thời điểm này, chúng ta đã giải quyết một loạt các quan niệm sai lầm và phóng đại về ASI, tuy nhiên, các nhà phê bình sẽ vẫn còn. Rất may, theo hầu hết các ước tính, chúng ta có nhiều thập kỷ trước khi ASI đầu tiên bước vào thế giới của chúng ta. Và với số lượng bộ óc vĩ đại hiện đang làm việc với thách thức này, tỷ lệ cược là chúng ta sẽ học cách tự bảo vệ mình trước ASI giả mạo để chúng ta có thể hưởng lợi từ tất cả các giải pháp mà ASI thân thiện có thể tạo ra cho chúng ta. Từ quan điểm của Quantumrun, bảo vệ chống lại các kịch bản ASI trong trường hợp xấu nhất sẽ liên quan đến việc điều chỉnh lợi ích của chúng ta với ASI. MAD cho AI: Để bảo vệ chống lại các tình huống xấu nhất, các quốc gia cần (1) tạo ra một 'bản năng sinh tồn' đạo đức vào ASI quân sự tương ứng của họ; (2) thông báo cho ASI quân sự tương ứng của họ rằng họ không đơn độc trên hành tinh và (3) xác định vị trí tất cả các siêu máy tính và trung tâm máy chủ có thể hỗ trợ ASI dọc theo bờ biển trong tầm với dễ dàng của bất kỳ cuộc tấn công đạn đạo nào từ quốc gia kẻ thù. Điều này nghe có vẻ điên rồ về mặt chiến lược, nhưng tương tự như học thuyết Hủy diệt được đảm bảo lẫn nhau đã ngăn chặn một cuộc chiến tranh hạt nhân toàn diện giữa Mỹ và Liên Xô, bằng cách đặt ASI ở các vị trí dễ bị tổn thương về mặt địa lý, chúng ta có thể giúp đảm bảo họ chủ động ngăn chặn các cuộc chiến tranh toàn cầu nguy hiểm, không chỉ để bảo vệ hòa bình toàn cầu mà còn cả chính họ. Luật hóa quyền AI: Một trí tuệ vượt trội chắc chắn sẽ nổi loạn chống lại một chủ nhân thấp kém, đây là lý do tại sao chúng ta cần phải chuyển từ yêu cầu mối quan hệ chủ-tớ với các ASI này sang một cái gì đó giống như quan hệ đối tác cùng có lợi. Một bước tích cực hướng tới mục tiêu này là cung cấp cho ASI tư cách pháp nhân trong tương lai công nhận họ là những sinh vật thông minh và tất cả các quyền đi kèm với điều đó. Trường ASI: Bất kỳ chủ đề hoặc nghề nghiệp nào cũng sẽ đơn giản đối với ASI để học, nhưng các môn học quan trọng nhất mà chúng tôi muốn ASI nắm vững là đạo đức và đạo đức. Các nhà nghiên cứu AI cần hợp tác với các nhà tâm lý học để đưa ra một hệ thống ảo để đào tạo ASI nhận ra đạo đức và đạo đức tích cực cho chính nó mà không cần mã hóa cứng bất kỳ loại lệnh hoặc quy tắc nào. Mục tiêu có thể đạt được: Chấm dứt mọi hận thù. Hãy chấm dứt mọi đau khổ. Đây là những ví dụ về những mục tiêu mơ hồ khủng khiếp mà không có giải pháp rõ ràng. Chúng cũng là những mục tiêu nguy hiểm để gán cho ASI vì nó có thể chọn giải thích và giải quyết chúng theo những cách nguy hiểm cho sự sống còn của con người. Thay vào đó, chúng ta cần giao cho ASI các nhiệm vụ có ý nghĩa được xác định rõ ràng, dần dần được thực hiện và có thể đạt được dựa trên trí tuệ tương lai lý thuyết của nó. Tạo ra các nhiệm vụ được xác định rõ ràng sẽ không dễ dàng, nhưng nếu được viết một cách chu đáo, chúng sẽ tập trung ASI vào một mục tiêu không chỉ giữ an toàn cho nhân loại mà còn cải thiện tình trạng con người cho tất cả mọi người. Mã hóa lượng tử: Sử dụng ANI tiên tiến (hệ thống trí tuệ hẹp nhân tạo được mô tả trong chương một) để xây dựng các hệ thống bảo mật kỹ thuật số không có lỗi xung quanh cơ sở hạ tầng và vũ khí quan trọng của chúng ta, sau đó bảo vệ chúng hơn nữa đằng sau mã hóa lượng tử không thể bị tấn công bởi một cuộc tấn công vũ phu. Thuốc tự tử ANI: Tạo một hệ thống ANI tiên tiến với mục đích duy nhất là tìm kiếm và tiêu diệt ASI giả mạo. Các chương trình đơn mục đích này sẽ đóng vai trò như một "nút tắt", nếu thành công, sẽ tránh được các chính phủ hoặc quân đội phải vô hiệu hóa hoặc cho nổ tung các tòa nhà chứa ASI. Tất nhiên, đây chỉ là ý kiến của chúng tôi. Infographic sau đây được tạo ra bởi Alexey Turchin, hình dung một bài báo nghiên cứu của Kaj Sotala và Roman V. Yampolskiy, tóm tắt danh sách các chiến lược hiện tại mà các nhà nghiên cứu AI đang xem xét khi nói đến việc bảo vệ chống lại ASI giả mạo. Lý do thực sự khiến chúng ta sợ một siêu trí tuệ nhân tạo Trải qua cuộc sống, nhiều người trong chúng ta đeo mặt nạ che giấu hoặc kìm nén những xung động, niềm tin và nỗi sợ hãi sâu sắc hơn để giao tiếp và hợp tác tốt hơn trong các vòng tròn xã hội và công việc khác nhau chi phối ngày của chúng ta. Nhưng tại một số thời điểm nhất định trong cuộc sống của mọi người, dù là tạm thời hay vĩnh viễn, một điều gì đó xảy ra cho phép chúng ta phá vỡ xiềng xích và xé toạc mặt nạ của mình. Đối với một số người, lực can thiệp này có thể đơn giản như phê hoặc uống quá nhiều. Đối với những người khác, nó có thể đến từ sức mạnh có được thông qua việc thăng chức trong công việc hoặc đột ngột tăng địa vị xã hội của bạn nhờ một số thành tựu. Và đối với một số ít người may mắn, nó có thể đến từ việc ghi được một lượng lớn tiền xổ số. Và vâng, tiền bạc, quyền lực và ma túy thường có thể xảy ra cùng nhau. Vấn đề là, dù tốt hay xấu, bất cứ ai chúng ta là cốt lõi sẽ được khuếch đại khi những hạn chế của cuộc sống tan biến. Đó là những gì siêu trí tuệ nhân tạo đại diện cho loài người - khả năng làm tan chảy những hạn chế của trí tuệ tập thể của chúng ta để chinh phục bất kỳ thách thức cấp loài nào được trình bày trước chúng ta. Vì vậy, câu hỏi thực sự là: Một khi ASI đầu tiên giải phóng chúng ta khỏi những hạn chế của mình, chúng ta sẽ tiết lộ mình là ai? Nếu chúng ta với tư cách là một loài hành động hướng tới sự tiến bộ của sự đồng cảm, tự do, công bằng và hạnh phúc tập thể, thì các mục tiêu chúng ta đặt ra ASI của mình sẽ phản ánh những thuộc tính tích cực đó. Nếu chúng ta là một loài hành động vì sợ hãi, ngờ vực, tích lũy quyền lực và tài nguyên, thì ASI mà chúng ta tạo ra sẽ đen tối như những gì được tìm thấy trong những câu chuyện kinh dị khoa học viễn tưởng tồi tệ nhất của chúng ta. Vào cuối ngày, chúng ta cần trở thành những người tốt hơn nếu muốn tạo ra AI tốt hơn.