10 điểm bởi longnightbebe 5 ngày trước | 3 bình luận | Chia sẻ qua WhatsApp

Tôi tình cờ phát hiện một tài liệu PDF khá thú vị khi lướt Internet. Đọc xong thì cá nhân tôi thấy nội dung khá sốc nên chia sẻ lại.

Có vẻ như tài liệu này đang chỉ trích cách tiếp cận đa tác tử mà mọi người trong giới AI dạo này đều đang thúc đẩy, và dường như nói rằng không nên trao quyền tự chủ cho AI mà nên dùng nó như một kiểu "bộ phận rendering".

Ngay cả tiêu đề tài liệu cũng được ghi là bản tạm, và ở phần sau còn nhắc đến một số dữ liệu thực chứng (PoC), nên tôi đoán có lẽ đây là một sách trắng nội bộ bị rò rỉ, được một công ty deep tech hay viện nghiên cứu nào đó viết ra để phục vụ việc gọi vốn đầu tư.

Thành thật mà nói tôi không hiểu được 100% toàn bộ nội dung, nhưng giọng điệu công khai phản bác rằng hướng đi hiện tại của các ông lớn công nghệ là sai khiến tôi thấy khá thú vị nên đăng lên.

Vì đây không phải bài báo chính thức nên tôi tải lên Google Drive của mình và chia sẻ liên kết.

3 bình luận

 

Việc trong các mô hình ngôn ngữ lớn (LLM), sự sáng tạoảo giác (Hallucination) rốt cuộc đều là kết quả của cùng một cơ chế dự đoán token tiếp theo mang tính xác suất (Next-token prediction) vốn là tiền đề cơ bản quá hiển nhiên, chưa từng là điều bí mật với các kỹ sư làm việc với AI, nhưng bản bạch thư này lại cường điệu hóa như thể đang phơi bày một bí mật kinh thiên động địa.

Lập luận phê phán bằng cách giới hạn tự hiệu chỉnh của đa tác nhân chỉ như sự lặp lại đồng nhất (Homogeneous Iteration) trong cùng một ngữ cảnh là điều khá đáng tiếc.

Trong môi trường phát triển thực tế, khi tích hợp tác nhân thông minh vào IDE và thực hiện prompt engineering ở mức nâng cao, bản chất xác suất này của mô hình không phải là một khiếm khuyết chí mạng không thể khắc phục, mà chỉ đơn thuần là một điều kiện nền tảng cần được xem như hằng số khi thiết kế hệ thống. Với tiền đề rằng mô hình có thể vượt ra ngoài ngữ cảnh, cách làm ngoài thực tế là cung cấp các ngữ cảnh được tách biệt rõ ràng hoặc giành quyền kiểm soát thực chất thông qua các ngữ cảnh ở quy mô khác nhau.

Thế nhưng bản bạch thư này lại bọc gói những điều hiển nhiên mà ai cũng biết bằng các thuật ngữ học thuật to tát như lỗi phạm trù, vòng tránh xác suất, từ đó khơi gợi cảm giác bất an. Mục đích có vẻ rất rõ ràng. Chỉ khi hạ thấp hoàn toàn tính tự chủ của LLM thì họ mới có thể tối đa hóa giá trị của mạng kiểm soát mang tính quyết định do con người trực tiếp thiết kế (hệ thống SERA) mà họ đề xuất.

Rốt cuộc, bài viết này giống một sales pitch thiên lệch được viết ra để thuyết phục các nhà ra quyết định trong môi trường enterprise, những người e ngại rủi ro từ hiện tượng ảo giác, rằng hãy áp dụng pipeline quyết định hard-code của chúng tôi thay vì các tác nhân không thể kiểm soát, hơn là một bản bạch thư có sự cân bằng về mặt kỹ thuật.

 

Có lẽ đây chỉ là một diễn ngôn về Neuro-Symbolic đã được tiếp nối từ trước đến nay. Từng có một thời người ta gán cho tính “quyết định luận” nhiều ý nghĩa hơn bây giờ. Nhưng khi hiệu năng được cải thiện đến mức các mô hình xác suất có thể xấp xỉ ở cấp độ quyết định luận, thì phần lớn dư địa tranh luận cũng biến mất. Rốt cuộc, điều chúng ta luôn mong muốn không phải là một thứ gì đó mang tính quyết định luận, mà là sự bất định ở mức “có thể chấp nhận được”. Xét ở điểm đó, ít nhất từ góc nhìn của “giới công nghiệp” chứ không phải học giới, có lẽ không cần gán quá nhiều ý nghĩa cho quyết định luận. Dù sao thì ngay cả khi việc tích hợp được tiến hành vào thời điểm tính bất định của các mô hình sinh hiện tại đã chững lại, cũng hoàn toàn không phải là quá muộn.

 

Viết thì có vẻ khó hiểu đấy, nhưng rốt cuộc điều muốn nói là nội dung này cũng áp dụng cho con người.
Vấn đề là liệu một bài do kẻ ngốc A viết ra, khi lại được chính kẻ ngốc A xem lại, có thực sự trở thành bài viết tốt hơn hay không.

Tất nhiên vẫn có một số ít trường hợp có thể tốt lên, cũng giống như vẫn có xác suất khoanh bừa hết mà đạt điểm tuyệt đối trong kỳ thi đại học, nhưng trong đa số trường hợp thì chỉ quay về mức trung bình sau N lần của kẻ ngốc A mà thôi.

(Chapter 2 thì tôi không thể hoàn toàn đồng ý.)

Tuy vậy, như bài luận văn nói, mong là mọi người hiểu rằng cái gọi là what-ever Scaling Law chỉ là một quy luật tăng trưởng mang tính tạm thời, chứ không phải thứ tồn tại vĩnh viễn.
Nếu đã đọc nghiêm túc bài luận văn của OpenAI thì hẳn cũng chẳng nói ra mấy lời như thế.

Thật ra còn hơn cả 100 bài luận văn kiểu đó, chỉ cần chứng minh rằng người khăng khăng nói "làm được" thực sự trở thành bằng chứng sống là xong.

Vấn đề là cứ mãi làm thứ giả kim thuật mang tên "làm được".