- Tim Gowers cho rằng ông đã thu được kết quả nghiên cứu ở trình độ tiến sĩ trong tổ hợp học chỉ trong khoảng 1 giờ với ChatGPT 5.5 Pro, và về thực chất gần như không có đóng góp toán học nào từ phía bản thân
- Với bài toán số học cộng tính của Mel Nathanson, ChatGPT 5.5 Pro đã đưa ra trong 17 phút 5 giây một cấu trúc cận trên bậc hai cho đường kính của tập hợp có kích thước hợp-tập cho trước, và cận này dường như là tốt nhất có thể
- Sau đó, mô hình tiếp tục giải bài toán hợp-tập bị hạn chế theo cùng cách, đồng thời còn tạo ra một lập luận cải thiện cận trên hàm mũ hiện có của Isaac Rajagopal thành phụ thuộc đa thức, đến mức Rajagopal thấy kết quả gần như chắc chắn là đúng
- Ý tưởng cốt lõi là thay các thành phần cấp số nhân trong cấu trúc của Rajagopal bằng cấu trúc dựa trên tập h-dissociated, từ đó tái hiện mẫu kích thước hợp-tập cần thiết trong một khoảng có kích thước đa thức
- Kết quả do AI tạo ra có vẻ đạt mức có thể xuất bản, nhưng thay vì đăng tạp chí hay đưa lên arXiv thì có thể cần một kho lưu trữ riêng nơi các nhà toán học con người xác nhận tính chính xác; đồng thời chuẩn đào tạo cho nhà nghiên cứu mới vào nghề cũng có thể chuyển sang hướng hợp tác với LLM để chứng minh những điều mà chỉ riêng LLM chưa làm được
LLM đang thay đổi cách giải bài toán tổ hợp
- Các mô hình ngôn ngữ lớn dường như đã đạt tới mức có thể giải các bài toán ở cấp độ nghiên cứu, và cũng được cho là đã giải nhiều bài toán đăng trên trang bài toán Erdős của Thomas Bloom
- Ở giai đoạn đầu, thành quả của LLM thường là tìm ra lời giải đã có trong tài liệu hoặc rút ra kết luận dễ dàng từ các kết quả đã biết, nhưng giờ đây khả năng LLM tìm được những lập luận đơn giản mà con người bỏ sót đang tăng lên
- Trong toán học của con người, việc kết hợp tri thức và kỹ thuật chứng minh sẵn có cũng chiếm một phần đáng kể, nên sự an ủi rằng LLM chỉ “ghép nối tri thức cũ” có giá trị khá hạn chế
- Trong tổ hợp học, các bài báo đưa vào tham số tổ hợp mới thường tự nhiên sinh ra nhiều bài toán, trước đây là nguồn bài toán mở tốt cho người mới nghiên cứu, nhưng nay tiêu chuẩn mới lại là chúng có đủ khó để LLM không giải được hay không
Bài toán của Nathanson và kết quả đầu tiên
- Gowers đã cho ChatGPT 5.5 Pro thử các bài toán xuất hiện trong bài báo của Mel Nathanson Diversity, Equity and Inclusion for Problems in Additive Number Theory
- Nathanson được giới thiệu là người đã sớm quan tâm tới những bài toán và định lý về sau trở nên thịnh hành, và nhờ đó đã viết nên các giáo trình có tính thời điểm và ảnh hưởng lớn
- Đối tượng trọng tâm là hợp-tập (sumset) của một tập số nguyên, các hợp-tập tạo thành bằng cách cộng nhiều lần, và các kích thước hợp-tập có thể có với số lượng phần tử cho trước
- Khi số lượng phần tử đã cho, các kích thước hợp-tập có thể có không phải lúc nào cũng bao trùm mọi giá trị giữa mức nhỏ nhất và lớn nhất, và đến nay vẫn chưa có mô tả đầy đủ
- Nathanson đã đưa ra một cận trên cho đường kính (diameter) cần thiết khi xây dựng một tập có số lượng phần tử và kích thước hợp-tập cho trước, đồng thời đặt câu hỏi liệu cận trên này có thể cải thiện hay không
- Sau 17 phút 5 giây suy nghĩ, ChatGPT 5.5 Pro đã đưa ra một cấu trúc cho cận trên bậc hai vốn dường như là tốt nhất có thể
- Khi Gowers yêu cầu viết lại thành một tệp LaTeX theo phong cách preprint toán học thông thường, ChatGPT đã cung cấp đúng định dạng đó sau 2 phút 23 giây, và Gowers dành thời gian để kiểm tra xem lập luận có đúng hay không
Tập Sidon và mở rộng sang hợp-tập bị hạn chế
- Lập luận của Nathanson và lập luận của ChatGPT đều dựa trên ý tưởng dùng đồng thời tập Sidon và cấp số cộng để tạo ra một tập có kích thước cho trước và một hợp-tập có kích thước cho trước
- Ở đây, tập Sidon được dùng theo nghĩa giản lược là tập mà kích thước hợp-tập đạt mức tối đa
- Để tinh chỉnh chi tiết, có thể thêm một điểm nữa gần cấp số cộng, và bằng cách điều chỉnh nhiều tham số, có thể thu được các tập có kích thước mong muốn
- Nathanson đã đưa ra một lập luận quy nạp trong Theorem 5 của bài báo này, nhưng khi viết tường minh ra thì về thực chất có vẻ là một cấu trúc dùng tập Sidon gồm các lũy thừa của 2
- Cải tiến của ChatGPT đến từ việc dùng một tập Sidon hiệu quả hơn, và thực tế rằng có thể tìm được các tập Sidon có đường kính bậc hai là điều đã được biết rõ
- Sau đó Gowers tiếp tục cho thử một bài toán gần gũi, trong đó xét kích thước của hợp-tập bị hạn chế (restricted sumset) thay vì kích thước hợp-tập, và ChatGPT cũng cho ra kết quả theo cùng cách mà không gặp mấy khó khăn
- Tài liệu tổng hợp hai kết quả thành một ghi chú duy nhất, không trùng lặp, được công bố tại đây
Bài toán bậc tổng quát và cải thiện bài báo của Rajagopal
- Gowers cũng hỏi xem ChatGPT có thể làm gì với trường hợp tổng quát hơn
- Ban đầu ông kém lạc quan hơn nhiều, vì các chứng minh trước đó phụ thuộc về bản chất vào kết quả của Erdős và Szemerédi, tức là vào việc biết chính xác những kích thước cần xây dựng
- Trong bài báo của Nathanson có nhắc tới một bài báo của sinh viên MIT Isaac Rajagopal, trong đó Rajagopal đã chứng minh sự phụ thuộc hàm mũ cho từng bậc cố định
- Đối với Rajagopal, khó khăn thực sự không nằm ở chỗ “không biết tập các kích thước có thể có”
- Lập luận của ông đưa ra một mô tả đầy đủ cho trường hợp đủ lớn
- Để chỉ ra sự phụ thuộc đa thức với bậc cố định, chỉ cần giả định trường hợp đủ lớn
- Khó khăn thật sự là cấu trúc để tạo ra một tập có kích thước hợp-tập cho trước phức tạp hơn nhiều, và khi bậc tăng thì bậc của đa thức cũng tăng, đòi hỏi nhiều tham số hơn
- Nhiệm vụ của ChatGPT không phải là giải bài toán từ đầu mà là siết chặt lập luận của Rajagopal
- Quá trình diễn ra như sau
- Sau 16 phút 41 giây, mô hình đưa ra một lập luận cải thiện cận trên hiện có từ dạng hàm mũ sang dạng có số mũ nhỏ hơn, với mọi hằng số dương tùy ý
- Việc viết thành dạng preprint mất thêm 47 phút 39 giây
- Gowers gửi kết quả này cho Nathanson, Nathanson chuyển tiếp cho Rajagopal, và với Rajagopal thì nó có vẻ là đúng
- Cả ChatGPT lẫn Rajagopal đều có một số phỏng đoán về điều cần thiết để đẩy tiếp lên cận đa thức, và Gowers đã cho ChatGPT thử theo hướng đó
- Sau 13 phút 33 giây, ChatGPT trả lời rằng khá lạc quan về khả năng tồn tại một lập luận như vậy, nhưng vẫn có vài mệnh đề kỹ thuật cần kiểm tra
- Khi được yêu cầu xác nhận, sau 9 phút 12 giây mô hình hoàn tất việc kiểm tra, và Gowers tiếp tục yêu cầu viết lại dưới dạng preprint
- Sau 31 phút 40 giây, bản preprint đã sẵn sàng, và tài liệu được công bố tại đây
- Rajagopal xem kết quả này là gần như chắc chắn đúng, điều đó được hiểu không chỉ ở mức từng dòng mà còn ở cấp độ ý tưởng
Nên đặt các kết quả toán học do AI tạo ra ở đâu
- Nếu đây là kết quả do con người tạo ra thì nó đã đạt mức có thể xuất bản, nên việc gọi nó là AI slop có vẻ không phù hợp
- Mặt khác, việc đăng lên tạp chí dường như cũng không có nhiều ý nghĩa
- Kết quả có thể được công bố miễn phí
- Không ai cần tới “công trạng”
- Tuy vậy, Rajagopal vẫn xứng đáng nhận nhiều công lao vì đã xây dựng nên khuôn khổ mà ChatGPT có thể dựa vào
- arXiv được hiểu là có chính sách không nhận nội dung do AI viết, và điều đó được xem là hợp lý
- Có thể sẽ cần một kho lưu trữ riêng cho các kết quả do AI tạo ra
- Một quy trình tuyển chọn chỉ bao gồm những kết quả đã được nhà toán học con người xác nhận tính chính xác có thể là điều đáng mong muốn
- Tốt hơn nữa là các kết quả đã được hình thức hóa bằng proof assistant
- Một tiêu chí khác cũng có thể là liệu đó có phải là kết quả trả lời các câu hỏi được nêu ra trong các bài báo do con người viết hay không
- Nếu quy trình tuyển chọn tạo ra khối lượng công việc khổng lồ thì sẽ rất rắc rối, và việc lại giao chính công việc đó cho AI rõ ràng mang theo rủi ro
- Trước mắt, các kết quả liên quan có thể được truy cập qua các liên kết công khai, và vì năng lực tìm kiếm tài liệu của LLM đã tốt hơn nên những ai muốn tra xem bài toán của Nathanson đã được giải hay chưa cũng có thể sẽ tìm thấy chúng
Đánh giá của Isaac Rajagopal và bối cảnh kỹ thuật
-
Những đóng góp cốt lõi của ChatGPT
- Chỉ với vài prompt, ChatGPT đã cải thiện một cận cụ thể từ phụ thuộc hàm mũ xuống phụ thuộc đa thức
- Cải thiện đầu tiên là một chỉnh sửa khá thông thường đối với công trình của Rajagopal, nhưng cải thiện đa thức thì thực sự rất ấn tượng
- Ý tưởng mà ChatGPT đưa ra mang tính độc đáo và khéo léo, thuộc kiểu mà nếu Rajagopal nghĩ ra sau 1–2 tuần suy nghĩ thì anh hẳn cũng sẽ rất tự hào
- ChatGPT đã tìm ra và chứng minh ý tưởng đó trong chưa đầy 1 giờ, bằng một phương pháp tương tự với chứng minh của chính Rajagopal
-
Bối cảnh của bài toán
- Bài toán về cận này có liên hệ chặt chẽ với vấn đề Rajagopal từng nghiên cứu trong chương trình Duluth REU (Research Experience for Undergrads)
- Đối tượng cốt lõi là tập các kích thước của nhiều lần lấy tổng hợp có thể có, và khoảng nhỏ nhất cần thiết để hiện thực hóa tất cả chúng bằng một tập số nguyên có số phần tử cho trước
- Mùa hè năm ngoái, Rajagopal đã đặc trưng hóa tường minh tập các giá trị khả dĩ trong trường hợp đủ lớn
- Anh đã xây dựng các tập hiện thực hóa mọi kích thước mà anh không thể loại trừ là bất khả thi, và từ đó cận tương ứng có thể thu được bằng cách tối ưu hóa cấu trúc ấy
-
Thay thế cấu trúc kích thước tăng theo cấp số nhân
- Cấu trúc ban đầu của Rajagopal là cách kết hợp nhiều tập thành phần nhỏ, mỗi tập dễ phân tích
- Một số thành phần có dạng cấp số nhân theo nhiều giá trị tham số, và các phần tử của chúng tăng theo hàm mũ theo tham số
- Thông qua Tim, Rajagopal đã hỏi ChatGPT liệu có tồn tại các tập có kích thước tổng hợp tương tự các cấp số nhân này nhưng kích thước phần tử bị chặn bởi đa thức hay không
- ChatGPT đã xây dựng các tập hành xử như thể “nhét được một nửa cấp số nhân vào trong một khoảng đa thức”
- Đây có vẻ là một cấu trúc đi ngược trực giác
Tập Bₕ, tập dissociated, và ý tưởng cấu trúc của ChatGPT
-
Vai trò của tập Bₕ
- Với một bậc cho trước, một tập được gọi là tập Bₕ nếu nó không có quan hệ tổng nào ngoài các nghiệm tầm thường, nơi một vế chỉ là hoán vị lại của vế kia
- Trong một tập Bₕ có kích thước cố định, cách chọn các phần tử có lặp để tạo tổng khớp chính xác với các phần tử của nhiều lần lấy tổng hợp
- Tính bằng “stars and bars”, đây là kích thước nhiều lần lấy tổng hợp lớn nhất có thể đối với các tập cùng kích thước
- Tập Sidon trong góc nhìn này chính là tập B₂
-
Tính chất mà cấp số nhân tái hiện
- Một số tập cấp số nhân cụ thể là tập Bₕ, nhưng không phải tập B ở bậc cao hơn
- Các quan hệ gây cản trở xuất hiện dưới dạng những quan hệ tổng có dạng nhất định
- Với một tập, kích thước tập tổng là hàm tuyến tính theo tham số, còn với tập khác thì là hàm bậc hai
- ChatGPT đã tìm ra các tập mới thỏa cả bốn tính chất này mà mọi phần tử đều có kích thước đa thức theo tham số
-
Sử dụng tập h-dissociated
- Cấu trúc của ChatGPT sử dụng tập h-dissociated
- Tập h-dissociated là tập chỉ cho phép các nghiệm tầm thường đối với các quan hệ tổng có bậc không vượt quá một ngưỡng giới hạn
- Có thể xây dựng các tập h-dissociated có kích thước xấp xỉ tham số và đường kính là đa thức
- Các cấu trúc như vậy truy ngược về các cách xây dựng của Singer (1938) và Bose–Chowla (1963) dùng trường hữu hạn, được trình bày trong Appendix 1
-
Trực giác “chỉ chứa một nửa số quan hệ”
- Hai tập do ChatGPT xây dựng chỉ chứa khoảng một nửa số quan hệ tổng nhất định so với các đối ứng cấp số nhân của chúng
- Đồng thời, nhờ tính chất h-dissociated, hầu như không có các quan hệ bậc thấp khác
- Kết quả là chúng tái hiện được mẫu kích thước tập tổng cần thiết dù vẫn nằm trong một khoảng đa thức
- Với Rajagopal, ý tưởng của ChatGPT dùng tập h-dissociated để kiểm soát các quan hệ dưới một bậc nào đó là cực kỳ tinh vi và có vẻ hoàn toàn độc đáo
Sự tương ứng giữa chứng minh của ChatGPT và chứng minh của Rajagopal
- Chứng minh của ChatGPT rất giống với dạng thay các thành phần cấp số nhân trong chứng minh gốc của Rajagopal bằng các thành phần mới do ChatGPT xây dựng
- Cấu trúc cuối cùng kết hợp các tập mới cho nhiều giá trị bậc khác nhau, rồi kết hợp thêm một tập khác gồm tập tổng của một cấp số cộng và một điểm
- Về trực giác, các tập mới tạo ra các tập tổng lớn, còn cấp số cộng tạo ra các tập tổng nhỏ, nên khi kết hợp chúng có vẻ sẽ cho được mọi kích thước tập tổng ở giữa
- Chứng minh thực tế khá phức tạp, chiếm trọn Section 4 trong bài báo của Rajagopal và toàn bộ preprint của ChatGPT
- Để so sánh, có thể dễ dàng thấy cận dưới dương tương ứng ít nhất ở mức lũy thừa của một bậc nhất định, nhưng giá trị thực sự vẫn chưa được biết
- Rajagopal cho biết anh rất ngạc nhiên khi bài toán Tim đưa vào ChatGPT 5.5 Pro lại tình cờ dẫn tới chính bài báo arXiv của mình
Ý nghĩa đối với nghiên cứu toán học và đào tạo tiến sĩ
- Kết quả mà ChatGPT tìm ra trong vòng 2 giờ được đánh giá là ở mức tương đương một chương hoàn toàn hợp lý trong luận án tiến sĩ tổ hợp
- Dù phụ thuộc nhiều vào ý tưởng của Isaac nên không phải là kết quả gây sốc, đó vẫn là một mở rộng không hề tầm thường của ý tưởng ấy
- Nếu là một nghiên cứu sinh tiến sĩ, để tìm ra cùng một mở rộng như vậy có lẽ sẽ phải mất khá nhiều thời gian để tiêu hóa bài báo của Rajagopal, tìm ra những điểm có thể chưa tối ưu, và làm quen với nhiều kỹ thuật đại số được sử dụng
- Kiểu đào tạo nghiên cứu bằng cách giao cho nghiên cứu sinh mới vào các bài toán mở tương đối “mềm” có thể sẽ trở nên khó hơn
- Nếu LLM có thể giải được các “bài toán mềm”, thì ngưỡng tối thiểu để đóng góp cho toán học sẽ dịch chuyển từ “một kết quả chưa ai chứng minh được và có người thấy thú vị” sang “một kết quả mà LLM không chứng minh được”
- Vì người mới cũng có thể dùng LLM, nhiệm vụ thực tế có thể là chứng minh những điều mà LLM không thể tự làm bằng cách cộng tác với LLM
- Gowers gần đây đã có nhiều lần cộng tác với LLM và cho rằng, dù chưa tới mức tạo ra ý tưởng làm thay đổi cuộc chơi, chúng vẫn mang lại những đóng góp hữu ích
Khác biệt giữa các lĩnh vực và những thay đổi sắp tới
- Vẫn chưa rõ những thay đổi này có thể khái quát tới các lĩnh vực toán học khác ở mức nào
- Tổ hợp học có xu hướng rất thiên về bài toán
- Người ta xuất phát từ câu hỏi rồi suy luận ngược, hoặc dù suy luận xuôi thì vẫn luôn ý thức rất mạnh về câu hỏi đó
- Ở các lĩnh vực khác, suy luận theo hướng tiến có thể quan trọng hơn: bắt đầu từ một dải ý tưởng rồi xem chúng dẫn tới đâu
- Trong những lĩnh vực như vậy, cần có khả năng phân biệt quan sát thú vị với quan sát không thú vị, và chưa rõ LLM sẽ làm việc này tốt đến đâu
- Tốc độ phát triển hiện nay nhanh đến mức mọi đánh giá về LLM rất có thể sẽ lỗi thời chỉ trong vài tháng
- Cách làm nghiên cứu toán học, đặc biệt là cách đưa người mới vào nghiên cứu, nhiều khả năng sẽ bị xáo trộn mạnh
- Một người bắt đầu học tiến sĩ vào năm học tới thì sớm nhất cũng phải tới 2029 mới hoàn thành, và tới lúc đó ý nghĩa của việc nghiên cứu toán học có thể đã khác đến mức khó nhận ra so với hiện nay
Sự thay đổi trong lý do làm toán
- Tác giả cho biết thỉnh thoảng vẫn nhận được email hỏi liệu tiếp tục theo đuổi nghiên cứu toán như một sự nghiệp còn có ý nghĩa hay không
- Việc vật lộn với các bài toán toán học vẫn có giá trị lớn, nhưng thời kỳ niềm vui vì tên mình gắn mãi với một định lý hay định nghĩa cụ thể có thể đang gần đi tới hồi kết
- Nếu mục đích làm toán là một dạng bất tử, thì cần hiểu rằng điều đó có thể sẽ không còn kéo dài được lâu nữa
- Như một thí nghiệm tư duy, nếu một nhà toán học có cuộc đối thoại dài với LLM và đóng vai trò định hướng hữu ích, nhưng LLM thực hiện toàn bộ phần kỹ thuật và cả ý tưởng cốt lõi để giải một bài toán lớn, thì vẫn có thể nghi ngờ liệu đó có nên được xem là một thành tựu lớn của nhà toán học ấy hay không
- Giải một bài toán mà lời giải đã được biết sẵn vẫn có thể mang lại sự thỏa mãn, nhưng không đủ làm lý do để dành vài năm cuộc đời cho nó
- Lý do tốt hơn là trong quá trình giải các bài toán khó, ta thu được cái nhìn sâu hơn về chính quá trình giải quyết vấn đề trong chuyên môn của mình
- Người từng tự mình giải các bài toán khó nhiều khả năng cũng sẽ giỏi hơn trong việc giải toán với sự hỗ trợ của AI
- Tương tự như một lập trình viên giỏi sẽ vibe coding tốt hơn người không giỏi
- Cũng giống như người hiểu rõ số học cơ bản sẽ dùng máy tính tốt hơn, đặc biệt là nhận ra tốt hơn khi đáp án có gì đó bất thường
- Toán học là một kỹ năng có tính chuyển giao cao, và điều này cũng đúng với toán học ở cấp độ nghiên cứu
- Dù nghiên cứu toán có thể không còn mang lại những phần thưởng như với các thế hệ trước, nó vẫn có thể giúp con người chuẩn bị rất tốt cho thế giới đang đến
Nội dung kỹ thuật của phụ lục
-
Phụ lục 1: Cấu trúc tập hợp h-dissociated
- Mục tiêu là tạo ra một tập hợp h-dissociated có đường kính xấp xỉ ở mức đa thức
- Cấu trúc này là một biến thể rất nhỏ của cấu trúc Bose–Chowla (1963), và Rajagopal cho biết đã học được từ bài báo này
- Bổ đề 3.1 trong preprint của ChatGPT dùng một cấu trúc khác, kém hiệu quả hơn, sử dụng moment curve
- Cấu trúc này sử dụng số nguyên tố, trường hữu hạn, phần tử sinh của mở rộng trường hữu hạn, và cách ghép mỗi phần tử với một biểu diễn lũy thừa cụ thể
- Có thể chuyển các quan hệ cộng với bậc bị chặn thành các quan hệ lũy thừa của phần tử sinh
- Do bậc mở rộng và tính chất của phần tử sinh, nó không thỏa mãn đa thức khác 0 bậc thấp, nên hai đa thức ở hai vế phải là giống hệt nhau
- Vì vậy, quan hệ cộng tương ứng chỉ có các quan hệ tầm thường, và tập hợp là h-dissociated
- Nếu cần, có thể loại bỏ một vài phần tử để giảm xuống kích thước mong muốn
-
Phụ lục 2: Cấu trúc chi tiết của cấu hình ChatGPT
- Chọn các hằng số cố định và sử dụng hai tập hợp do ChatGPT tạo ra
- Cấu trúc tập hợp để đạt kích thước mong muốn kết hợp bốn loại thành phần
- Một loại chọn hai tham số
- Hai loại chọn hai tham số cho mỗi giá trị bậc
- Một tập hợp để tổng số phần tử khớp đúng
- Một trong các lý do khiến cấu trúc này phức tạp là phải tạo ra đủ nhiều tập hợp khác nhau
- Để làm điều đó, các tham số ở một miền và các tham số ở miền khác được thay đổi cùng nhau
- Nếu bỏ đi một trong các tham số và giữ nguyên phần còn lại, sẽ không thể tạo được đủ số lượng tập hợp cần thiết
- Cấu trúc của Nathanson với bậc 2 là một cấu trúc đơn giản hơn, kết hợp tập hợp Sidon, cấp số cộng và một giá trị bổ sung, rồi thay đổi kích thước của cấp số cộng và giá trị bổ sung trong một phạm vi nhất định để tạo ra các tập hợp cần thiết
- Từ cấu trúc trong Phụ lục 1, có thể thu được các tập hợp h-dissociated với đường kính đa thức cho mỗi bậc
- Khi kết hợp nhiều thành phần, cấu trúc này dùng một dạng kiểu lưới với các vector cơ sở
- Cấu trúc này đảm bảo đẳng thức nhân của hàm sinh, tương tự Lemma 4.9 của Rajagopal
- Theo Bổ đề 2.3 chuẩn trong preprint của ChatGPT, cấu trúc đó có thể được chuyển sang một tập con của một đoạn số nguyên thông qua một Freiman đồng cấu ở bậc nhất định
- Toàn bộ cấu trúc hoạt động cho các trường hợp đủ lớn
-
Phụ lục 3: Đối chiếu giữa bài báo của Rajagopal và preprint của ChatGPT
- Mục 4.2 của bài báo Rajagopal dùng một cấu trúc đơn giản hơn để tạo ra các tập hợp đạt được những giá trị nhất định
- Các tập hợp này là những tập con của một đoạn chỉ gồm các phần tử có kích thước đa thức, và điều này được quan sát trong Mục 5 của preprint ChatGPT
- Mục 4.3 của bài báo Rajagopal thực hiện cấu trúc cốt lõi kết hợp nhiều thành phần, tương ứng với các Mục 2, 3, 4, 6 của preprint ChatGPT
- Mục 4.3.1 của bài báo Rajagopal cung cấp phần tổng quan về phần có nhiều thành phần biến động
- Mục 4.3.2 của bài báo Rajagopal giải thích cách kết hợp các thành phần, và Rajagopal gọi đó là disjoint union
- Hàm sinh được đưa vào như một công cụ ghi sổ để theo dõi kích thước hợp của các tập hợp, điều này tương ứng với Mục 2 và Mục 4 của preprint ChatGPT
- Mục 4.3.3 của bài báo Rajagopal tính các hàm sinh của từng tập hợp thành phần, bao gồm Lemma 4.15 và Lemma 4.17
- Điều này tương ứng với Mục 3 và Mục 6.1 của preprint ChatGPT, và trong preprint ChatGPT thì một hàm sinh được tính trong Lemma 3.3, còn hàm sinh kia được tính trong Lemma 3.4
- Sau khi tính các hàm sinh, phần chứng minh còn lại gần như giống hệt nhau trong bài báo Rajagopal và preprint ChatGPT
- Mục 4.3.4 của bài báo Rajagopal chỉ ra rằng khi thay đổi các tập hợp đã cấu trúc, các giá trị kích thước hợp sẽ nhận mọi giá trị khả dĩ
- Điểm cốt lõi là tập các giá trị khả dĩ tạo thành một khoảng, và bao gồm toàn bộ các số nhỏ hơn hoặc bằng một giá trị chuẩn nhất định
1 bình luận
Ý kiến trên Hacker News
Trải nghiệm dùng thử 5.5 Pro một lúc khá khớp với cảm nhận này. Đây là lần đầu tiên tôi thấy một LLM có thể bị thúc ép để thực sự giải được những bài toán rõ ràng nhưng nhàm chán
Nó vẫn mắc lỗi nhiều và phải được chỉ dẫn rất chặt chẽ, nhưng khác với các mô hình khác, khả năng tự theo dõi mạch suy luận rồi tự sửa của nó khá tốt
Nhược điểm là chi phí. Nó đốt token như điên và giá token cũng đắt, mà nếu dùng luồng tác tử con để giải các bài toán lớn với độ chính xác cao thì còn đắt hơn nữa
Với các bài toán quy mô lớn, giới hạn ngữ cảnh còn khiến nó chậm đi rất nhiều. Nó phải tìm lại ngữ cảnh cho từng phần, và để giữ độ chính xác thì trước khi sang phần nhỏ tiếp theo phải xóa ngữ cảnh hoặc gọi thêm nhiều tác tử hơn
Nếu là những bài toán “quan trọng” như chứng minh toán học, nơi phần ngữ cảnh bổ sung cần để hiểu bài toán và chứng minh là nhỏ, thì có thể chấp nhận được, nhưng với việc kiểm tra tính đúng đắn của mã trong codebase lớn hay xác minh các giả định tinh vi thì rõ ràng có giới hạn
Vì vậy trừ khi bạn là người may mắn có thể dùng 5.5 Pro không giới hạn, có lẽ sẽ còn mất thời gian để những năng lực ấn tượng kiểu này ngấm vào công việc hằng ngày của lập trình viên
Bài này dài và trộn lẫn phần toán kỹ thuật với phần triết học, nhưng đoạn đặc biệt ấn tượng là việc đào tạo nghiên cứu sinh tiến sĩ năm đầu đã trở nên khó hơn
Trước đây có thể bắt đầu bằng cách giao những bài toán nghiên cứu tương đối nhẹ, nhưng nếu LLM có thể giải được những “bài toán nhẹ” đó thì lựa chọn ấy không còn nữa
Ngưỡng thấp nhất để đóng góp cho toán học không còn là “điều thú vị mà chưa ai chứng minh”, mà là “điều LLM chưa chứng minh được”
Tuy vậy việc đào tạo vẫn phải bắt đầu từ nền tảng. Ai cũng học cộng số nguyên nhỏ trước, và máy tính cầm tay đã làm việc đó không sai từ rất lâu rồi
Cũng như các phần khác trong bài viết, chính việc tự giải các bài toán khó mới tạo ra trực giác về bản thân quá trình giải quyết vấn đề, và những ai từng giải các bài toán khó có lẽ sẽ tận dụng AI tốt hơn
Lập trình là làm ra thứ người ta trả tiền để sử dụng, nên có thể giao hàng nhanh hơn nhờ AI và tiếp tục được thuê, nhưng tôi không chắc toán học có thể được nhìn theo cùng cách đó
Nếu LLM làm hết ý tưởng chính và phần việc kỹ thuật, còn nhà toán học chỉ dẫn dắt hữu ích, thì tôi nghi ngờ việc đó có được xem là thành tựu lớn của nhà toán học hay không
Trong doanh nghiệp cũng vậy, khi mọi người giao việc cho LLM thì kết quả không phải lúc nào cũng tệ và đôi khi còn chấp nhận được, nhưng đó không phải công việc của chính người đó
Vì thế tác giả không hiểu hay nắm việc đó tốt hơn người khác, cũng không thực sự sở hữu hay giải thích được nó. Theo đúng nghĩa đen, họ chỉ là điểm trung chuyển, nên giá trị biến mất
Nếu LLM giải hết phần “nghiên cứu dễ” thì quá trình đó sẽ khó hơn nhiều
Sư tử con học săn sau này bằng cách đánh nhau và chơi với những con khác, nhưng nếu đột nhiên có TikTok khiến chúng không chơi nữa thì lần đi săn đầu tiên sẽ khó hơn rất nhiều
Cũng đúng là có thể kiếm tiền bằng cách giao hàng nhanh hơn nhờ AI, nhưng đó là chuyện khác với việc trở thành lập trình viên giỏi. Nếu không trở thành coder giỏi thì bạn sẽ mãi là vibe coder tệ
Điểm thú vị trong bài của Baez là câu hỏi giá trị của tư duy và các ý tưởng sâu sắc đến từ đâu
Nếu giá trị đó chủ yếu đến từ sự khan hiếm, tức việc rất khó để có được một ý tưởng nào đó, thì khi việc sản xuất ý tưởng được tự động hóa, giá trị có thể giảm mạnh
Nhưng nếu giá trị đến từ tính hữu dụng của ý tưởng, tức lợi ích mà ý tưởng đó mang lại, thì câu chuyện sẽ khác. Có thể việc tạo ra nhiều ý tưởng tốt hơn còn là điều tốt hơn nữa
Có lẽ các nhà toán học sẽ phải thích nghi với sự chuyển dịch từ nền kinh tế khan hiếm sang nền kinh tế dư dả
https://gowers.wordpress.com/2026/05/08/a-recent-experience-...
Thứ hai là những người thuần xây dựng lý thuyết, Conway là ví dụ tiêu biểu, họ quan tâm đến lý thuyết và ý tưởng hơn là định lý, và muốn mở rộng lãnh thổ của toán học
Thứ ba là các nhà toán học ứng dụng, xem toán học là phương tiện để đạt mục đích, muốn dùng toán để giải các vấn đề ngoài toán học
Kiểu thứ nhất, tức người giải bài toán, có vẻ bị AI đe dọa trực tiếp nhất. Tuy vậy hiện tại AI vẫn giỏi giải bài hơn là tìm ra phỏng đoán mới
Kiểu thứ hai, tức người xây dựng lý thuyết, sẽ bị đe dọa ở tương lai xa hơn. Cho đến nay khả năng của AI trong việc tạo ra các ý tưởng toán học mới lạ và thú vị vẫn còn hạn chế, và cũng chưa ai biết phải huấn luyện chuyện đó thế nào
Kiểu thứ ba có thể hưởng lợi nhiều nhất từ AI. Nếu AI trả lời được các câu hỏi toán học, họ sẽ bớt thời gian cho toán và tập trung hơn vào các vấn đề bên ngoài mà họ muốn giải bằng toán
Trong khi đó Wiles và Perelman tránh xa mạng và đi giải những vấn đề thật sự
Với tư cách giáo sư vật lý, tôi thường dùng Gemini để rà soát bài báo, và nó là một công cụ mạnh
Nó đã tìm ra những lỗi hành chính như thiếu đơn vị ảo trong biểu thức phức mà tôi không tìm thấy suốt nhiều ngày, và cũng thường chỉ ra các kết nối giữa khái niệm và ý tưởng mà tôi bỏ sót
Nhưng nó cũng thường mắc lỗi khái niệm, và tôi nhận ra được vì tôi hiểu chủ đề này khá rõ. Ví dụ nó liên tục nhầm giữa số mũ của bivector và số mũ của pseudoscalar trong đại số Clifford 3 chiều
Tôi tin ChatGPT 5.5 Pro có thể tạo ra bài báo đủ để xuất bản, nhưng dựa trên những gì tôi đã thấy ở Gemini cho đến nay, tốt hơn nên xem LLM như một sinh viên cực kỳ hiệu quả có thể đọc bài báo và sách trong chớp mắt, nhưng vẫn cần rất nhiều hướng dẫn
Hơn nữa, không có lý do gì để nghĩ rằng đà tiến bộ của LLM sẽ sớm dừng lại, khi mà chỉ 3~4 năm trước chúng còn không giải ổn định được cả toán trung học
Benchmark CritPt gồm các bài toán vật lý ở mức nghiên cứu chưa công bố, nên đáng để theo dõi
https://critpt.com/
Các mô hình tiên phong vẫn còn khá xa mới gọi là giải được, nhưng tiến bộ rất nhanh. o3 high là 1.5 năm trước 1.4%, GPT 5.4 xhigh là 23.4%, GPT-5.5 xhigh là 27.1%, còn GPT-5.5 Pro xhigh là 30.6%
https://artificialanalysis.ai/evaluations/critpt
Tôi cũng cứ lặp lại sai lầm đó
Đó cũng là một trong những lý do việc phải quản lý bộ nhớ của LLM thủ công bằng prompt tùy chỉnh và chỉ dẫn khiến người ta khó chịu
Tôi chưa dùng nghiêm túc tính năng bộ nhớ dài hạn, nhưng có lẽ nó còn khó tin cậy hơn prompt. Trong 1~2 năm sẽ có quá nhiều thứ thay đổi nên rất có thể cái “ký ức” đó cũng phải được tạo lại nhiều lần
Nếu không có kỳ vọng đó, bạn phải chấp nhận mọi thứ theo mặt chữ, và ngay khoảnh khắc ấy bạn phó mặc cho lòng thương của cỗ máy
Tôi mang nền tảng chuyên môn vào để sanity check các tác tử hấp tấp, và cố truyền lại nền tảng đó để người khác cũng làm được như vậy
Cuối cùng điều này có cảm giác như là con đường duy nhất để cả hệ thống hoạt động. Trừ khi một ngày nào đó các công ty chuyển sang những mô hình cục bộ nhỏ hơn mà họ có thể chi trả
Xác suất đúng và xác suất đẩy bạn lao xuống vực là 50-50, nhưng chuyến đi thì lúc nào cũng được gói như trải nghiệm 5 sao tuyệt đẹp
Khi bạn chỉ ra lỗi cho LLM thì đa phần mọi thứ còn tệ hơn, vì LLM muốn làm bạn hài lòng nên sẽ xin lỗi rồi đổi hướng
Khi rơi vào tình huống đó, tôi thường lưu phiên hoặc hủy nó rồi bắt đầu lại từ đầu, hoặc mạnh tay rẽ hẳn sang hướng khác
Với tôi Gemini là LLM khó đoán nhất, còn tổng thể thì GPT hợp với tôi nhất
Gần đây Gemini đã cho hai câu trả lời khác nhau cho cùng một câu hỏi. Tôi cố ý mở chat mới và dán lại y nguyên prompt để thử
Trong mảng lập trình, khả năng suy luận không giúp nhiều đến vậy, vì phần giải thích của LLM rất cấp cao và nhìn hình thức thì có vẻ đúng
Vì LLM mà tôi còn phải google nhiều hơn. Rốt cuộc nó tạo ra một thứ mà tôi vẫn phải tự kiểm chứng trước khi bấm nút, và phải một lúc sau mới biết cái nút lấp lánh đó sẽ hoạt động hay dẫn thẳng xuống địa ngục
Nếu một nhà toán học có cuộc đối thoại dài với LLM và dẫn dắt hữu ích, nhưng LLM làm hết phần kỹ thuật và ý tưởng chính, thì việc có xem đó là thành tựu lớn của nhà toán học hay không là một lựa chọn văn hóa
Trong văn hóa toán học hiện nay, cảm giác lạ lẫm là điều tự nhiên, nhưng ở các lĩnh vực khác hoặc với nhiều cá nhân, người ta hoàn toàn có thể xem con người đã có đóng góp lớn
Chừng nào hợp tác người-AI còn cho ra kết quả tốt nhất thì con người vẫn có đóng góp có ý nghĩa, và một chuyên gia sâu cùng người điều khiển LLM lành nghề có thể đóng góp rất lớn
Thay đổi thật sự sẽ đến khi AI thuần túy đánh bại cả con người lẫn hợp tác người-AI
Trong toán học cũng vậy, con người có thể dẫn LLM đi đúng đường, hướng nó vào bài toán này thay vì bài toán khác, nên ở mức nào đó vẫn xứng đáng được khen
Có thể đội làm ra chiếc xe, người chăm con ngựa hay đội xây AI đáng nhận nhiều lời khen hơn, nhưng ta thường quan tâm nhiều hơn đến một cá nhân dễ thấy nhất
Nếu một bức ảnh khiến mọi người bật cười, người nhập prompt sẽ không thể nhận phần lớn công lao cho việc sản xuất, nhưng có thể được ghi công cho ý tưởng ban đầu và gu thẩm mỹ khi chọn ra một kết quả cụ thể trong nhiều bản nháp
Nếu nhà toán học có được một kết quả đáng kinh ngạc mà LLM đã “làm ra”, tôi nghĩ họ vẫn có thể nhận phần nào công lao vì đã đưa prompt và dẫn hướng
Tuy vậy, cũng như người thứ nhất có thể không được gọi là nghệ sĩ mà là diễn viên hài, câu hỏi là nhà toán học đó vẫn còn là nhà toán học hay đã trở thành thứ gì khác
Chỉ cần thưởng cho họ tương đương những nhà toán học khác. Dĩ nhiên khi ấy sẽ có khá nhiều nhà toán học thành tỷ phú, nên phần thưởng chắc cũng lớn
Câu “nếu mục đích của việc làm toán là để đạt được một dạng bất tử nào đó, thì có lẽ điều đó sẽ không còn khả thi được lâu nữa” khiến tôi hơi buồn
Phần mở đầu phim đầy những sinh viên lướt qua khuôn viên MIT và lời hứa hẹn cùng địa vị mà giáo dục bậc cao mang lại
Khi nhận ra sẽ có bao nhiêu thứ bị AI lấy mất, tôi thấy một nỗi buồn tương tự
[0] - https://youtu.be/0lsUsWdkk0Y?si=TJl7f_b1RcWcDqF8&t=278
Suy nghĩ tiếp theo của tôi là “mình giỏi cái gì?”, trong đó ít nhất cũng có ý “mình có thể đạt đẳng cấp thế giới ở điều gì?” hoặc “mình có thể thật sự rất giỏi ở điều gì?”
Tôi chưa bao giờ nghĩ rằng chỉ cần tìm ra một kết quả nào đó, gắn tên mình vào nó và để nó sống lâu hơn mình là đủ để đạt được bất tử toán học, nhưng nếu từng nghĩ vậy thì tin xấu này có lẽ cũng sẽ gây sốc tương tự
Tuy nhiên ở ranh giới đó tôi không đồng ý với tiền đề. Dù dùng bao nhiêu trợ lý chứng minh hay cụm máy tính đi nữa, đội ngũ hay cá nhân chứng minh được giả thuyết Riemann vẫn sẽ nổi tiếng. Ít nhất là nổi tiếng trong giới toán học
Có lẽ nhiều người nhắm đến các ứng dụng thực tiễn gián tiếp theo chuỗi toán học→vật lý→kỹ thuật, hoặc đơn giản là vì vẻ đẹp của toán học và niềm vui trí tuệ
AI có thể lấy luôn cả phần ứng dụng thực tiễn, nhưng những mặt còn lại thì ta vẫn có thể tận hưởng
Là nghiên cứu sinh, bài này khiến tôi buồn. Tôi từng tin rằng công việc của mình sẽ nói thay cho bản thân mình, vượt ra ngoài quãng thời gian hữu hạn được ban cho trong trải nghiệm vũ trụ này
Cảm giác bất tử ấy là một phần thưởng nhỏ và vô hình mà tôi mong đợi khi lao vào cao học, nhưng AI khiến tôi cảm thấy bản thân kém giá trị hơn
Điều đó đáng làm vì bạn có thể làm nó. Tôi mong bạn làm vì yêu công việc ấy, và vì yêu những bí ẩn
Hãy tận hưởng từng khoảnh khắc mình còn có thể làm công việc đó. Hãy tìm niềm vui trong may mắn lớn lao là được làm việc này, khác với những người bị mắc kẹt trong những việc không mang lại thỏa mãn
Đôi khi nó nhàm chán, nhưng đôi khi nó tự thân đã vô cùng đáng giá
Nhưng đừng làm nó vì khả năng có được vinh quang vĩnh cửu. Điều đó không còn tồn tại nữa
Không có thử thách nào lớn hơn thế
Là phó giáo sư khoa học máy tính lý thuyết ở Đông Âu, tôi luôn hơi ghen tị khi các tên tuổi lớn trong giới toán có thể dễ dàng tiếp cận các mô hình suy luận dài đắt tiền
Với ngân sách học thuật hiện tại, trả tiền cho Pro ở đây là điều hoàn toàn ngoài thực tế. Ngân sách bị ràng buộc mục đích sử dụng, và các khoản thanh toán phần mềm hầu như không khớp mục nào
Trên thực tế gần như phải xin một khoản tài trợ nghiên cứu mới, hy vọng quy định của nó cho phép chi lớn cho phần mềm, và hy vọng không gặp người phản đối AI trong hội đồng xét duyệt. Quy trình đó mất ít nhất 1 năm
Chưa hết, Microsoft gần đây còn siết việc dùng Copilot cho mục đích cá nhân và học thuật, nên tôi cũng bị mất quyền truy cập Claude Opus
ChatGPT 5.5 Plus có vẻ không đủ để đào sâu các chủ đề nghiên cứu mới, và tôi đã tự thử rồi
Mất 2 năm mới thiết lập xong dịch vụ đó, mà nó chỉ cung cấp gpt-oss-120b, nên mọi người vẫn dùng các dịch vụ khác
Dù vậy, thế là một số quản trị viên có thể rải chữ “AI” khắp website trường, và có cớ để từ chối yêu cầu đăng ký AI vì “đã có AI rồi”
Có ví dụ về người giàu và người nghèo mua ủng. Ủng của người nghèo mau mòn nên phải thay liên tục, còn ủng của người giàu chất lượng tốt hơn nên đi được nhiều năm
Theo thời gian, người nghèo lại tốn nhiều tiền hơn cho ủng
Nếu dùng tiết kiệm thì thường cũng khá rẻ
Dù trường không trả thì tôi vẫn nghĩ bạn sẽ muốn dùng vì mục tiêu riêng của mình
Không phải để chỉ trích, tôi chỉ muốn biết liệu chi phí đó có hoàn toàn ngoài tầm với của đa số nhà nghiên cứu trong khu vực ấy hay không
Khoảng 10 năm trước tại hội nghị chung AMS-MAA ở Seattle, tôi từng xem Tim Gowers phát biểu và dự đoán rằng 100 năm nữa con người sẽ không còn làm toán học nghiên cứu nữa. Tôi tự hỏi giờ ông ấy có điều chỉnh mốc thời gian đó chưa
Khi ấy tôi nghĩ công cụ còn thiếu quan trọng là tìm kiếm ngôn ngữ tự nhiên hoạt động như MathOverflow: bạn mô tả vấn đề hay ý tưởng theo cách mình hiểu, rồi hệ thống tìm ra tài liệu liên quan nằm ngoài kinh nghiệm hay vốn từ của bạn
Là nhà toán học xuất sắc không có nghĩa là luôn đúng. Thật ra các nhà toán học có khá nhiều lý thuyết kỳ quặc
Đại đa số sinh viên bước vào giáo dục đại học mùa thu này, nếu có làm nghiên cứu, cũng phải 4~5 năm nữa mới có thể đóng góp đáng kể cho khoa học. Nếu tính đến lúc chương trình tiến sĩ thật sự vào guồng thì thực tế là 6~7 năm
Nhìn lại trình độ mô hình của 5~7 năm trước, khi đó mối đe dọa hiện sinh với tiến sĩ còn chưa xuất hiện trên radar. Những người đang hoàn thành tiến sĩ bây giờ là thế hệ đầu tiên thực sự có thể tận dụng các công cụ này
Giờ mà sinh viên muốn trở thành nhà nghiên cứu lại nản chí rồi bỏ cuộc, hoặc hoàn toàn dựa vào mô hình AI để giao việc, thì sẽ thành vấn đề
Chuyện tài trợ cho vị trí tiến sĩ cũng vậy. Nếu tài trợ chuyển từ mục tiêu “đào tạo nhà nghiên cứu” sang “đạt kết quả”, thì tiền vốn dành cho nghiên cứu sinh có thể chảy sang tài nguyên tính toán
Nếu nhìn bi quan, một số nhà nghiên cứu có thể chi tiền cho compute rồi xuất bản được nhiều bài hơn hẳn so với việc bỏ ra vài năm đào tạo sinh viên
Đây là thời kỳ thú vị, nhưng bất định quá lớn. Tôi thấy thương cho những sinh viên đang phải quyết định mình nên làm gì lúc này
Nhất là ở các lĩnh vực “mềm” hơn, ngay cả luận án tiến sĩ và hồ sơ xuất bản đẹp cũng đã có thể mua được
Nếu bạn ở doanh nghiệp chứ không phải học thuật thì thăng chức cũng có thể mua được. Nếu công ty cấp ngân sách AI cho mọi nhân viên, bạn chỉ cần lặng lẽ bỏ thêm tiền túi để gấp đôi ngân sách đó cho đến khi được thăng chức, rồi sau khi thăng chức thì dừng lại và hưởng mức lương cao hơn
Có thể thấy rõ là giờ họ làm được những nghiên cứu mà trước đây không thể làm
Tôi cũng thấy việc dùng AI làm suy yếu phần nào khả năng tự viết code, nhưng tôi xem nó giống với việc xây mô hình machine learning bằng scikit-learn hay Pytorch
Những chi tiết tầng thấp bị trừu tượng hóa và nếu không có AI thì họ không làm được nhiều, nhưng nghiên cứu đó vẫn thật sự xảy ra nhờ chính họ, và sẽ không xảy ra chỉ với AI alone
Khoản đó gần như chỉ là một mục ngân sách thêm vào sau này, nên không phải mục tiêu hấp dẫn đến mức đáng đào xới cho các quy trình khác vốn đắt đỏ hơn