Nó được coi là một bước đột phá, nhưng trí tuệ nhân tạo tổng quát có phải là mục tiêu khoa học hay là một thuật ngữ tiếp thị thông dụng? Bất kể thuật ngữ nào được sử dụng, tương lai mà máy móc có thể suy nghĩ vượt trội hơn con người đang đến rất gần.
Trên trang bìa của kế hoạch kinh doanh ban đầu cho DeepMind, phòng thí nghiệm AI mà họ thành lập vào năm 2010, Ngài Demis Hassabis, Mustafa Suleyman và Shane Legg chỉ viết một câu duy nhất: Xây dựng trí tuệ nhân tạo tổng quát đầu tiên trên thế giới.
Quan điểm của họ, vẫn đúng cho đến ngày nay, là các công nghệ AI truyền thống quá “hẹp“, có thể hoạt động xuất sắc, nhưng chỉ sau khi con người đã đào tạo chúng một cách công phu bằng cách sử dụng các tập dữ liệu khổng lồ. Điều đó khiến AI trở nên xuất sắc trong các nhiệm vụ như phân tích bảng tính hoặc thậm chí là chơi cờ vua. Nhưng trí thông minh “tổng quát” nhân tạo, được gọi là AGI, có tiềm năng tiến xa hơn nữa.
Mười lăm năm sau, các giám đốc điều hành công nghệ đều thống nhất trong niềm tin rằng AGI chính là bước đột phá lớn tiếp theo và đang ca ngợi tiềm năng của nó.
Trong số đó có giám đốc điều hành OpenAI Sam Altman, người đã viết rằng AGI có thể “giúp chúng ta nâng cao nhân loại bằng cách gia tăng sự phong phú, thúc đẩy nền kinh tế toàn cầu và hỗ trợ khám phá kiến thức khoa học mới làm thay đổi giới hạn của khả năng”.
Hassabis, người sở hữu công ty DeepMind đã sáp nhập với Google để trở thành một trong những phòng thí nghiệm AI có ảnh hưởng nhất thế giới, cho biết AGI có tiềm năng giải quyết các vấn đề toàn cầu như chữa khỏi bệnh tật, giúp con người sống khỏe mạnh hơn, lâu hơn hoặc tìm ra nguồn năng lượng mới.
Dario Amodei, giám đốc điều hành của Anthropic, người thích sử dụng cụm từ “AI mạnh mẽ” để mô tả AGI, cho biết AGI có thể sẽ “thông minh hơn một người đoạt giải Nobel trong lĩnh vực có liên quan nhất của [họ]”.
Nhà khoa học AI hàng đầu của Meta, Yann LeCun, được coi là một trong những “cha đẻ” của công nghệ này, cũng không thích thuật ngữ AGI vì trí thông minh của con người không thực sự phổ biến. “Chúng ta rất chuyên biệt… và chắc chắn, máy tính có thể giải quyết một số nhiệm vụ tốt hơn nhiều so với chúng ta“, ông nói gần đây.
Thay vào đó, để mô tả những cỗ máy vượt trội hơn trí thông minh của con người, ông sử dụng siêu trí tuệ nhân tạo (ASI).
Bất kể thuật ngữ cuối cùng được sử dụng là gì, một công nghệ trước đây chỉ là khoa học viễn tưởng ngày càng được thảo luận nhiều hơn như một viễn cảnh tương lai nghiêm túc.
Nhưng cũng giống như Thung lũng Silicon không thể nhất trí về việc AGI hay ASI chính xác là gì, thì cũng thiếu sự đồng thuận về việc công nghệ này sẽ trông như thế nào nếu hoặc khi nó xuất hiện. DeepMind đã đặt ra thuật ngữ này để mô tả cái mà họ gọi là “AI có ít nhất khả năng ngang bằng một người lớn có kỹ năng ở hầu hết các nhiệm vụ nhận thức“. Nhưng định nghĩa đó lại gợi ra nhiều câu hỏi hơn: bạn định nghĩa một người lớn “có kỹ năng” như thế nào? Làm sao chúng ta biết khi nào chúng ta đã đạt được “nhiều” nhiệm vụ nhận thức nhất? Những nhiệm vụ đó là gì ngay từ đầu?
Tính vô hình của AGI đã cho phép nó trở thành nhiều thứ đối với nhiều người. “Đối với một số người, đó là một mục tiêu khoa học. Đối với một số người, đó là một tôn giáo. Và đối với một số người, đó là một thuật ngữ tiếp thị“, François Chollet, một cựu kỹ sư phần mềm tại Google, cho biết.
Theo đó, có nhiều ước tính khác nhau về thời điểm nó có thể xuất hiện. Elon Musk dự đoán công nghệ AI thông minh hơn con người sẽ xuất hiện vào cuối năm nay. Amodei của Anthropic đã đặt cược rằng nó sẽ xuất hiện vào năm 2026. Altman đã hứa rằng AGI sẽ xuất hiện trong nhiệm kỳ tổng thống của Donald Trump.
Điều này không ngăn cản các chính phủ và doanh nghiệp, nói theo cách nói của Thung lũng Silicon, “cảm nhận được AGI”.
OpenAI và Anthropic đã thu hút hàng tỷ đô la từ các nhà đầu tư trong nỗ lực xây dựng công nghệ này và tham vọng của họ được thúc đẩy bởi kế hoạch của Nhà Trắng nhằm trì hoãn việc quản lý AI để vượt lên trước Trung Quốc.
AGI cũng được nhắc đến nhiều hơn 53% trong các cuộc họp thu nhập của các công ty trong quý đầu tiên năm 2025 so với cùng kỳ năm trước.
Nhưng việc xác định công nghệ là rất quan trọng để hiểu được hậu quả của việc xây dựng AGI và liệu nó có nên là ưu tiên hay không.
Nhiều điều phụ thuộc vào sự xuất hiện của nó, đối với các nhà hoạch định chính sách và nhà đầu tư. EU đã không loại trừ khả năng tạm dừng dự luật AI mang tính bước ngoặt của mình, Đạo Luật AI, một phần vì lo ngại cản trở sự phát triển của các mô hình AI “biên giới”. Và các quốc gia như Vương Quốc Anh và Viện An Ninh AI của họ đang cố gắng tìm hiểu AGI là gì, để họ có thể lập kế hoạch nghiên cứu chính sách và an toàn phù hợp.
Ngay cả trong định nghĩa rộng nhất của nó, lời hứa về AGI sẽ tăng tốc đáng kể quá trình xử lý máy tính — nhưng với chi phí tài chính và môi trường lớn. Và nếu các kỹ sư có thể xây dựng công nghệ, làm thế nào chúng ta có thể đảm bảo nó được sử dụng một cách công bằng và hợp lý?
Câu trả lời cho câu hỏi AGI là gì phụ thuộc vào người bạn hỏi. Đối với OpenAI, định nghĩa này gắn liền với việc liệu công nghệ có thể được sử dụng để thực hiện công việc mang lại lợi ích kinh tế hay không. Mark Chen, giám đốc nghiên cứu của công ty cho biết: “Chúng tôi đang cố gắng phát triển hệ thống tự chủ cao này có thể vượt trội hơn con người trong nhiều công việc có giá trị kinh tế”.
Theo Chen, một tính năng chính là tính tổng quát, khả năng thực hiện các nhiệm vụ trên nhiều lĩnh vực khác nhau. Ông nói thêm rằng “Chúng phải khá tự chủ [và] không cần nhiều sự hỗ trợ để hoàn thành nhiệm vụ”.
Chen cho biết AGI sẽ có khả năng biến “những thứ trong đầu bạn thành hiện thực rất nhanh chóng”, với tiềm năng giúp mọi người tạo ra không chỉ hình ảnh hay văn bản mà là toàn bộ ứng dụng.
Nhưng những người chỉ trích cho rằng định nghĩa này không mô tả được một hệ thống thực sự thông minh. “Đó chỉ là tự động hóa, một điều mà chúng ta đã làm trong nhiều thập kỷ”, Chollet nói.
DeepMind có cách tiếp cận khác. Legg của DeepMind, người đã phổ biến thuật ngữ trí tuệ nhân tạo tổng quát vào đầu những năm 2000 khi nó được coi là một niềm tin cực đoan, cho biết: “Tôi tin rằng hiệu suất điển hình của con người là cách tự nhiên, thực tế và hữu ích nhất để xác định các yêu cầu tối thiểu để một AI được coi là AGI”.
“Một vấn đề lớn với nhiều định nghĩa về AGI là chúng không nêu rõ một hệ thống AI cần có khả năng làm gì để đủ điều kiện trở thành AGI.”
Định nghĩa của DeepMind — có khả năng như một “người lớn có kỹ năng ở hầu hết các nhiệm vụ nhận thức” — khiến điều này trở nên “khá rõ ràng”, Legg nói thêm. “Hãy tự hỏi liệu một số nhiệm vụ có phải là nhiệm vụ nhận thức mà mọi người thường có thể làm hay không. Nếu có, thì AI phải có khả năng thực hiện nhiệm vụ đó để trở thành AGI”.
DeepMind đã cố gắng định nghĩa công nghệ này bằng cách đặt ra 5 cấp độ khả năng AI. Các mô hình AI như ChatGPT của OpenAI, Gemini của Google và Llama của Meta sẽ chỉ đạt đến cấp độ 1 “AGI mới nổi“, theo phân loại của nó. Cho đến nay, không có mô hình chung nào đạt đến cấp độ 2, điều này sẽ giúp nó vượt qua ít nhất là phần trăm thứ 50 của người lớn có kỹ năng, Allan Dafoe, giám đốc an toàn biên giới và quản trị tại DeepMind cho biết.
Cấp độ ba sẽ yêu cầu mô hình phải tốt ít nhất là 90% người lớn có kỹ năng, trong khi cấp độ bốn sẽ yêu cầu 99% người lớn có kỹ năng. AI siêu phàm, hay siêu trí tuệ nhân tạo, vượt trội hơn 100% con người.
Nếu quá ít người có thể đồng ý về đích đến, thì không có gì ngạc nhiên khi có nhiều lý thuyết về con đường tốt nhất để đạt được AGI. OpenAI và Anthropic cho rằng các mô hình ngôn ngữ AI mà họ đang xây dựng đại diện cho con đường tốt nhất. Mô hình tiên phong hiện tại của các công ty này là bạn càng đưa nhiều dữ liệu và sức mạnh tính toán vào mô hình thì mô hình đó sẽ càng trở nên “thông minh”.
OpenAI gần đây đã công bố mô hình “lý luận” 03 mới, công ty cho biết mô hình này có thể giải quyết các tác vụ phức tạp hơn trong mã hóa, toán học và nhận dạng hình ảnh bằng cách chia nhỏ vấn đề theo từng bước.
Một số người ủng hộ AGI phấn khích nhất đã nhanh chóng tuyên bố công nghệ này là AGI. “Tôi biết khi tôi nhìn thấy nó”, Tyler Cowen, một nhà kinh tế học và chuyên gia AI nổi tiếng tuyên bố sau khi mô hình được ra mắt.
Đối với Chen, bước tiếp theo hướng tới AGI vượt ra ngoài các mô hình lý luận của công ty sẽ là tạo ra các tác nhân AI, có thể thực hiện các hành động độc lập và đáng tin cậy. Sau đó, các công cụ AI có thể tạo ra sự đổi mới và cuối cùng, hoạt động như các tổ chức mô phỏng các cấu trúc lớn của con người làm việc cùng nhau, ông nói.
Một đặc điểm quan trọng khác là tự cải thiện. “Đây là một hệ thống không chỉ hoạt động ở ranh giới kiến thức của bạn mà còn rất giỏi trong việc tự cải thiện. Nó có thể tự viết mã và có thể tạo ra phiên bản tiếp theo của chính nó, khiến nó trở nên tốt hơn nữa”, ông nói thêm.
Nhưng các nhà phê bình đã chỉ ra rằng các mô hình ngôn ngữ có vô số điểm yếu. Chúng vẫn rất không chính xác, bịa đặt và không thực sự “suy nghĩ” mà chỉ đơn giản là dự đoán từ có khả năng tiếp theo trong một câu.
Một bài báo gây tranh cãi gay gắt từ các nhà nghiên cứu tại Apple đã phát hiện ra rằng thế hệ mô hình lý luận mới chỉ tạo ra ảo giác về tư duy. Thay vì lý luận, chúng chỉ ghi nhớ một cách chuyên nghiệp các mẫu trong văn bản và “đối mặt với sự sụp đổ hoàn toàn về độ chính xác” khi được giao các nhiệm vụ phức tạp.
Một số nhà công nghệ cũng cho rằng ngôn ngữ không thể nắm bắt được mọi khía cạnh của trí thông minh và đang theo đuổi các mô hình rộng hơn.
LeCun của Meta đang xây dựng cái gọi là mô hình thế giới, học từ video và dữ liệu robot thay vì ngôn ngữ. Ông lập luận rằng chúng ta cần hiểu biết toàn diện hơn về thế giới để tạo ra trí thông minh máy móc vượt trội.
Dafoe của DeepMind cũng tin rằng một cách để đạt được AGI có thể là xây dựng các mô hình ngôn ngữ ngày càng lớn hơn, đa phương thức, nghĩa là chúng cũng có thể xử lý video và âm thanh.
Nhưng có những thách thức đang đến. Đầu tiên, lĩnh vực AI đang cạn kiệt dữ liệu, sau khi đã thu thập hầu hết dữ liệu để đào tạo AI từ internet miễn phí. Bây giờ họ đang tìm kiếm các thỏa thuận cấp phép dữ liệu với các nhà xuất bản. Ví dụ, OpenAI và Financial Times có một thỏa thuận chia sẻ nội dung.
Dafoe cho rằng dữ liệu tổng hợp, nơi mô hình AI tạo ra dữ liệu đào tạo, có thể là một giải pháp đầy hứa hẹn. Những đột phá khác như mô hình AI có trí nhớ và hiểu biết tốt hơn về thế giới vật lý — có lẽ bằng cách học hỏi từ robot — cũng có thể đóng vai trò trong việc đạt được các hệ thống thông minh hơn.
Nếu không có lộ trình thống nhất, một số nhà lãnh đạo công nghệ đã bắt đầu hạ thấp tiêu chuẩn cho sự xuất hiện của nó. “Tôi đoán là chúng ta sẽ đạt được AGI sớm hơn hầu hết mọi người trên thế giới nghĩ và điều đó sẽ ít quan trọng hơn nhiều“, Altman cho biết vào tháng 12.
Đối với những người chỉ trích AGI, câu chuyện thay đổi này phơi bày động cơ thực sự của những người đang thúc đẩy nó. Nick Frosst, đồng sáng lập công ty khởi nghiệp AI Cohere, cho biết, cuộc nói chuyện về AGI “chủ yếu là một bong bóng chứa đầy những người huy động vốn từ ý tưởng đó“. “Nếu bạn nghe ai đó nói rằng AGI sắp xảy ra, và họ đã nói điều đó trong nhiều năm, và họ dường như có động cơ tài chính để nói điều đó… Tôi nghĩ bạn nên đặt câu hỏi tại sao cho đến nay họ vẫn sai”.
Thuật ngữ này có vẻ hấp dẫn các nhà đầu tư. Vào tháng 3, OpenAI đã huy động được số tiền khổng lồ là 40 tỷ đô la với mức định giá 300 tỷ đô la.
Antoine Moyroud, đối tác tại Lightspeed Ventures, một công ty đầu tư mạo hiểm đã đầu tư vào Anthropic và Mistral, cho biết: “Khả năng vạch ra con đường hướng tới AGI đã mở ra các nguồn vốn mà nếu không thì sẽ không thể đạt được hoặc không có sẵn”.
Bởi vì với AGI, các nhà đầu tư không chỉ đầu tư với hy vọng kiếm được hàng trăm triệu đô la doanh thu, mà còn với triển vọng thay đổi cách chúng ta tạo ra GDP, có thể tạo ra hàng nghìn tỷ đô la tài sản.
Moyroud cho biết kết quả là “có những người sẵn sàng chấp nhận rủi ro trên quỹ đạo AGI”.
Một số người trong ngành công nghệ đặt câu hỏi liệu AGI có phải là thứ chúng ta nên phấn đấu ngay từ đầu hay không. Chúng ta vẫn chưa nắm bắt được đầy đủ về trí thông minh trong sinh học, tâm lý học hay thậm chí là giáo dục, Margaret Mitchell, nhà khoa học đạo đức chính tại công ty khởi nghiệp AI nguồn mở Hugging Face, người đồng sáng tác một bài báo lập luận rằng AGI không nên được coi là Ngôi sao phương Bắc.
“Trí thông minh như một khái niệm vẫn chưa được định nghĩa”, bà nói thêm. “Việc nhắm đến nó có phần khó khăn, bởi vì… nó cung cấp cho chúng ta một vỏ bọc của điều gì đó tốt đẹp, trong khi thực tế, nó không thực sự là một điều cụ thể, mà thay vào đó cung cấp một câu chuyện về việc thúc đẩy bất kỳ công nghệ nào mà chúng ta muốn thúc đẩy”.
Các chuyên gia cho biết động lực phát triển một loại công nghệ nhất định chỉ tập trung quyền lực và sự giàu có vào tay một nhóm thiểu số, đồng thời lợi dụng những nghệ sĩ và nhà sáng tạo có tài sản trí tuệ xuất hiện trong các tập dữ liệu AI khổng lồ mà không có sự đồng ý hoặc bồi thường.
Cuộc tìm kiếm AGI cũng đi kèm với dấu chân môi trường khổng lồ, vì các mô hình AI ngày càng mạnh mẽ đòi hỏi hàng tấn nước và năng lượng để đào tạo và chạy trong các trung tâm dữ liệu khổng lồ. Công nghệ này cũng đang được sử dụng để thúc đẩy sản xuất trong các lĩnh vực gây ô nhiễm cao như dầu khí.
AGI cũng đặt ra câu hỏi về đạo đức và những tác hại xã hội có thể xảy ra. Trong cuộc đua xây dựng công nghệ và hưởng lợi từ lợi ích kinh tế của nó, những người chỉ trích cho rằng các chính phủ đang bỏ qua các quy định sẽ cung cấp các biện pháp bảo vệ cơ bản khỏi các công nghệ AI, chẳng hạn như thiên vị thuật toán và phân biệt đối xử.
Ngoài ra còn có một nhóm thiểu số có ảnh hưởng — bao gồm các nhà nghiên cứu được coi là cha đẻ của AI hiện đại, chẳng hạn như Yoshua Bengio và Geoffrey Hinton — cảnh báo về những hậu quả cực đoan hơn. Họ lập luận rằng, nếu không được kiểm soát, AGI có thể dẫn đến sự tuyệt chủng của loài người.
Mitchell cho biết một trong những tác hại của câu chuyện “AGI bằng mọi giá” là nó có thể làm bùng nổ khoa học tồi. Các ngành khoa học khác đã được xác lập như hóa học và vật lý có các phương pháp khoa học cho phép thử nghiệm nghiêm ngặt.
Nhưng khoa học máy tính là một lĩnh vực mới hơn nhiều, với xu hướng đưa ra “những tuyên bố bao quát, tuyệt vời” mà không được nghiên cứu hỗ trợ, bà nói thêm.
Các nhà hoạch định chính sách và giám đốc điều hành doanh nghiệp có trách nhiệm phải suy nghĩ về những rủi ro liên quan đến các công nghệ mạnh mẽ, Frosst của Cohere cho biết. “Nếu bạn là một học giả, hãy thoải mái đưa ra ý kiến. Nhưng nếu bạn là một nhà hoạch định chính sách hoặc giám đốc điều hành doanh nghiệp, bạn phải suy nghĩ về những điều thực tế.”
Một số nhà nghiên cứu từ học viện và thậm chí từ các phòng thí nghiệm AI lớn như Google DeepMind, Anthropic, Microsoft và Hugging Face đã đưa ra lập luận về những cách có ý nghĩa để đo lường và đánh giá các công nghệ AI trong thế giới thực.
Mitchell cho biết cho đến khi chúng ta đạt được điều đó, AGI chỉ là “rung cảm và dầu rắn”.