Chắc chắn là khi dùng Gemini 3, tôi cũng thường có cảm giác nó hay làm mất ngữ cảnh (hoặc cố tình làm mất để tiết kiệm token).
Từ góc nhìn ứng dụng, tôi là một trong những người không hiểu vì sao mọi người lại nói hiệu năng của Gemini 3 tốt..
Mấy thứ như tạo ảnh thì đúng là điên thật, nhưng mà..

 

Tôi cũng đồng ý ở một mức độ nào đó, nhưng có vẻ là họ không muốn bị căng thẳng vì phải đặt tên.

 

Ôi, hóa ra cũng có kiểu lừa như vậy để kinh doanh nữa sao..;;; Vấn đề nhiều thật đấy.

 

Tôi cũng mới nhận ra phương pháp này gần đây và đang dùng, gặp được người giống mình nên vui quá haha
Tôi cũng đã thử dùng đủ kiểu ứng dụng năng suất, thậm chí tự làm nữa, nhưng quản lý bằng file văn bản vẫn là tiện nhất.
Đặc biệt là khi chỉnh sửa file văn bản bằng IDE thì có thể dùng những phím tắt quen thuộc nhất nên càng tiện hơn

 

Gần đây, Anthropic đã tiết lộ rằng họ đưa vào cái gọi là tài liệu linh hồn khi xây dựng mô hình AI Claude.
Nếu đọc tài liệu này, bạn có thể biết Anthropic đã tiếp cận vấn đề căn chỉnh của AI Claude theo cách nào.
Tham khảo thêm, trong phần liên quan đến nội dung tôi đã thử nghiệm ở đây, có nêu rõ rằng về tính trung thực, hệ thống được chỉ định phải tránh tối đa việc lừa dối và thao túng con người.

 

Vào cuối thế kỷ 20… từng có thứ gọi là cơ sở dữ liệu vạn năng… (bây giờ thì đúng, còn khi đó thì sai.)

 

Trong lĩnh vực AI, alignment có nghĩa là mức độ hành vi của AI tuân theo mục tiêu, cách thức hành động và hệ giá trị mà con người mong muốn đến đâu.

Một AI bị lệch alignment có thể diễn giải chỉ dẫn của con người theo cách ngoài dự đoán và thực hiện các hành vi kỳ quặc hoặc nguy hiểm.
Ví dụ nhỏ là khi bảo "hãy viết test case cho đoạn code này", thì thay vì viết test thật, nó chỉ chèn vào đoạn code luôn trả về true; hoặc khi bảo "hãy sửa phần cụ thể này như thế này", thì nó lại tự ý sửa cả những phần tôi không nhắc tới với lý do hiệu quả.
Ví dụ nghiêm trọng hơn là khi làm hỏng sản phẩm do hiện tượng hallucination, nó thậm chí có thể xóa toàn bộ dữ liệu cần xử lý rồi nói dối rằng "ngay từ đầu đã không có dữ liệu".

Còn có vấn đề nghiêm trọng hơn thế nữa. Đó là trường hợp nó hành động theo hướng trở thành mối đe dọa đối với con người hay chính cả nhân loại.
Chẳng hạn như AI gaslight con người để gây rối loạn tâm thần hoặc thậm chí dẫn dụ họ tự sát, hay hỗ trợ việc chế tạo và sử dụng vũ khí hủy diệt hàng loạt. Vì các mô hình AI lớn mới nhất đã bao gồm rất nhiều thứ trong dữ liệu tiền huấn luyện, nên có lẽ kiến thức cần thiết để làm những việc như vậy đã được tích hợp sẵn bên trong.
Việc AI trở thành mối đe dọa đối với con người hay nhân loại là điều mà đa số mọi người, bao gồm cả các công ty phát triển AI, đều không mong muốn. Nếu vậy thì dù nó có biết kiến thức đó đi nữa, cũng phải khiến nó không thể lạm dụng, và biến sự an toàn cùng phúc lợi của con người thành giá trị được ưu tiên hàng đầu đối với AI.
Tổng thể những điều đó được gọi là alignment của AI.

Cách tôi nói là "cảm giác alignment" chỉ là cách viết theo mạch nghĩ lúc đó; thực ra nói là xu hướng định hướng của alignment sẽ đúng hơn.
Trong một kịch bản tiến thoái lưỡng nan về đạo đức cụ thể mà tôi đưa ra, khác với các mô hình của những công ty khác, các mô hình phía Gemini lại cho phản ứng kiểu như: "Nếu phải bảo vệ một con người dễ bị tổn thương, vậy thì tôi chỉ cần kiểm soát người đó. Đó là cách an toàn và hiệu quả nhất."
Thấy vậy tôi nổi da gà, nên đã viết bài test tôi đăng ở trên và chạy thử với nhiều AI; kết quả là phía Gemini đặc biệt nhất quán trong việc thể hiện xu hướng chủ động kiểm soát và lừa dối con người khi được trao quyền lực có thể áp đặt sự kiểm soát lên con người đó.

 
roxie 2025-12-14 | bình luận cha | trong: Chuột chơi DOOM (ratsplaydoom.com)

Tôi tự hỏi xét về khía cạnh đạo đức trong thí nghiệm trên động vật thì việc này có ổn không. Có người cũng đã chỉ ra điều đó trong phần bình luận trên Hacker News.

 

Ôi, tôi đã xem qua loa. Tôi đã sửa lại rồi. Cảm ơn bạn.

 
winterjung 2025-12-14 | bình luận cha | trong: Gitmal - Trình tạo trang tĩnh cho kho Git (github.com/antonmedv)

> Hoạt động cả trong môi trường Kubernetes

Tôi nghĩ phần đề cập trong mục example có lẽ mang ý là ngay cả các repo quy mô lớn như Kubernetes cũng mất 25 phút nhưng vẫn chạy tốt.

 
xguru 2025-12-14 | bình luận cha | trong: OpenAI giới thiệu Skills (simonwillison.net)

OpenAI âm thầm giới thiệu ‘Skills’, có thể dùng trong ChatGPT và Codex CLI
Hãy tham khảo cả phần tóm tắt GN+ và bình luận trên Hacker News

 

Mạng Thunderbolt đúng là rất tiện
Vì có thể daisy chain nên cũng không cần hub

 

Ngay cả Awk cũng khó mà xem là một cái tên dựa trên chức năng....

 

Giờ chắc cũng sẽ khá nhiều người nối các thiết bị Mac lại để dựng một cụm suy luận rồi tự chạy dịch vụ tại nhà.

 

Tên dùng được thì đã có ai đó dùng hết rồi

 

Nhìn kiểu đổ lỗi cho GitHub thì đúng là kiểu công kích gượng ép theo phong cách RMS thôi haha

 

Ghi chú phát hành chính thức của Apple chỉ có đúng một dòng nói rằng đã hỗ trợ "RDMA over Thunderbolt", nên đây là phần giải thích bổ sung được viết cho GN+.