Trước hết hãy ổn định tính năng kênh đi đã..

 

Có vẻ như những người hiểu rõ các điểm nghẽn tại hiện trường mới là cốt lõi.

 

Dù đây không phải là ý tưởng quá mới ở thời điểm hiện tại, nhưng có vẻ đây là một cách hay vì có thể thực hiện mà không phá vỡ interface signature hay workflow.

 

Chính xác hơn thì có vẻ bài này được đăng lên vì lý do OpenAI thời còn Amodei giữ kín GPT-2 và lý do giữ kín mô hình Mythos là tương tự nhau. Amodei khi đó và Amodei bây giờ chẳng có gì thay đổi..

 

Phần lớn đều được thiết lập để mang về, nhưng lần này lại bị sót một cách lạ và đã được xử lý như vậy. Tôi sẽ sửa để không đụng vào phần này.

 

Không hẳn là đội thúc đẩy AX là xấu..
Có vẻ vấn đề là sau khi lập đội AX rồi lại bảo "vì các bạn là đội AX nên hãy nhanh chóng tự động hóa bằng AI đi"..
Có lẽ tốt nhất là người làm nghiệp vụ trong domain giữ vai trò chủ đạo, còn chuyên gia công nghệ AX hỗ trợ trong quá trình đưa AI vào..

 

Tham khảo thêm, nếu xem nội dung bài viết nhắc đến GPT-2 và năm đăng bài gốc là 2019 thì có thể thấy đây là trong bối cảnh gần đây Anthropic nói sẽ không công khai model Mytho vì quá nguy hiểm, và trước kia OpenAI cũng từng làm ầm ĩ với GPT-2 theo cách tương tự.

Trong trường hợp của HN, có vẻ có thói quen gắn năm nếu là bài đăng cũ (tôi không rõ có phải tự động gắn hay không), nên tôi nghĩ GeekNews cũng hiển thị như vậy thì sẽ hay hơn.

 

Có phải Sam Altman đang đồng cảm với Oppenheimer không? Nếu thấy nguy hiểm thì lẽ ra có thể hoàn thiện cho an toàn rồi mới công bố, nên tôi nghĩ việc lại khuyến khích người ta dùng thì không nhất quán trước sau. Tôi cũng cho rằng trường hợp Anthropic Mythos cũng tương tự.

 

Tôi thấy điều Anthropic nói thì đáng tin, nhưng sao điều OpenAI nói lại khó tin đến vậy nhỉ?
Có phải vì Anthropic đã show-and-proof bằng cách tạo bản vá zero-day nên mới vậy không?
Hay là vì OpenAI đã dùng đi dùng lại kịch bản này nhiều lần rồi?

 

Driver Windows thì chắc là khác đấy.

 

Mỗi khi thấy những việc như thế này tôi lại nghĩ rằng, việc xác minh chữ ký không phải là việc của nền tảng mà là của người dùng. Nhà phát triển phải ký bằng khóa của mình, còn người dùng thì nên cho phép khóa của nhà phát triển đáng tin cậy trên thiết bị của mình để sử dụng.

Không biết chuyện này và đòi người khác tự lo hộ thì là điều vô lý. Bất kể bạn có quan tâm đến máy tính hay không, nếu chính bạn là người sẽ sử dụng thì đây là một thói quen nhất định phải có.
Nếu dùng điện thoại và truy cập Internet thì không nên vô điều kiện tin vào những gì trang web, tin nhắn hay cuộc gọi nói, mà phải có khả năng chọn lọc thông tin; đó là một chỉ dẫn cơ bản ở mức như vậy.

Nếu có một giao diện như Windows UAC, nơi bạn có thể xác nhận chỉ bằng một nút xem có tin cậy một nhà phát triển cụ thể hay không, thì ngay cả những người không biết khái niệm ký mã và khóa cũng có thể sử dụng được.

 

Bạn đã tóm tắt rất rõ ràng. Cảm ơn bạn.

 

Các dự án nửa vời tràn lan…
những người chỉ hiểu lập trình một nửa thì lại cuồng nhiệt…

 

Có chỉ đạo trong công ty rằng hãy thử phát triển chỉ bằng vibe coding, nên tôi đã áp dụng thử đủ thứ, nhưng khi thực sự làm thì hóa ra kỹ năng phát triển xuất sắc không đồng nghĩa với việc đảm bảo chất lượng cao..
Ngược lại, có vẻ năng lực rà soát và hiểu đoạn mã do AI tạo ra mới là yếu tố cốt lõi. Có thể gọi đó là một nghịch lý: công cụ càng tốt thì “năng lực đọc và phán đoán” lại càng trở nên quan trọng hơn.

 
  • Có ý kiến cho rằng trong thời đại AI, ARR có thể không còn là chỉ số chung đáng tin cậy như trước
  • Các chỉ số tiêu biểu của ngành công nghệ đã thay đổi theo từng thời kỳ
    • Thời đại social: DAU/MAU
    • Thời đại SaaS: ARR/MRR
    • Thời đại AI: vấn đề được đặt ra là ngay cả ARR truyền thống cũng ngày càng có khả năng bóp méo thực tế
  • Điểm khởi đầu của bài viết là sự lệch nhau trong các con số của Anthropic
    • Tháng 2/2026 công ty nhấn mạnh ARR 14 tỷ USD
    • Một tháng sau, trong tài liệu nộp cho tòa án lại ghi “doanh thu lũy kế kể từ khi thành lập vượt 5 tỷ USD”
    • Cùng một công ty, ở thời điểm gần như tương tự, nhưng ý nghĩa của các con số lại rất khác nhau
    • Tác giả diễn giải đây là “tín hiệu cho thấy trong thời đại AI, ARR không còn mô tả đúng trạng thái thực của doanh nghiệp”
  • Có 3 lý do khiến ARR bị lung lay trong AI
    1. Giả định SaaS rằng chi phí biên gần như bằng 0 đã không còn đúng
      • Với AI, mỗi lần gọi suy luận đều phát sinh chi phí GPU/cloud thực tế
      • Càng dùng nhiều thì chi phí cũng càng tăng
    2. Chênh lệch giá vốn theo từng khách hàng là rất lớn
      • Cùng trả một mức phí, nhưng có khách hàng chi phí thấp, có khách hàng chi phí cao
      • Nếu chỉ nhìn ARR thì cả hai đều có vẻ là “doanh thu tốt”, nhưng lợi nhuận thực tế lại rất khác nhau
    3. Độ ổn định của doanh thu lặp lại yếu hơn
      • Chi phí chuyển đổi thấp hơn SaaS nên dễ chuyển sang model/dịch vụ khác hơn
      • Bản thân yếu tố “recurring” đã kém vững chắc hơn trước
  • Vì vậy, ARR của doanh nghiệp AI có thể cho thấy “tăng trưởng”, nhưng lại không phản ánh tốt lợi nhuận, tính bền vững và chất lượng kinh doanh
    • Lập luận là cấu trúc này khá giống với việc trước đây DAU/MAU cho thấy mức độ quan tâm của người dùng nhưng không thể hiện sức khỏe doanh nghiệp
  • Tác giả cho rằng các trường hợp của Anthropic và OpenAI cũng cho thấy vấn đề này
    • Có sự chênh lệch giữa ARR được công bố với doanh thu lũy kế thực tế, kết quả bán niên và tốc độ đốt tiền mặt
    • Nói cách khác, nếu đọc các con số “annualized” như thể chúng đồng nghĩa với kết quả cả năm thực tế thì sẽ dễ gây hiểu nhầm
  • Các chỉ số ứng viên thế hệ tiếp theo cho thời đại AI mà tác giả đưa ra
    1. Năng suất trên mỗi đô la chi tiêu (Productivity per Dollar Spent)
      • Không chỉ đơn giản là ARR / số nhân viên
      • Mà cần nhìn như ARR / (chi phí nhân sự + chi phí AI) thì mới thấy hiệu quả thực sự
    2. Giá trị năm đầu tiên (First Year Value)
      • Thay vì giả định tương lai xa như LTV
      • Đây là góc nhìn xem khách hàng có nhận được đủ giá trị trong 12 tháng đầu để gia hạn hay không
    3. Các chỉ số tập trung vào unit economics như lợi nhuận gộp trên mỗi token
      • Điều quan trọng không phải là xử lý được bao nhiêu
      • Mà là xử lý được bao nhiêu trong khi vẫn giữ lại được bao nhiêu
  • Thông điệp cốt lõi
    • Trong thời đại AI, cần nhìn vào cấu trúc lợi nhuận gộp, lợi nhuận theo từng khách hàng và giá trị giữ lại trong năm đầu, thay vì chỉ nhìn quy mô doanh thu
    • Câu chuyện là phải đọc cấu trúc của con số, chứ không chỉ nhìn độ lớn của con số
  • Cũng có vấn đề thực tế
    • Muốn theo dõi đúng các chỉ số thế hệ thứ ba này
    • Thì hệ thống billing, chi phí hạ tầng và hệ thống tài chính phải được kết nối với nhau
    • Nhưng đa số doanh nghiệp AI hiện vẫn chưa có đủ hạ tầng đo lường ở mức đó

Tóm tắt một dòng
Kinh doanh AI ngày càng khó được giải thích chỉ bằng một chỉ số ARR như SaaS, và trong tương lai các chỉ số cho thấy “giữ lại được bao nhiêu, bền vững đến đâu” sẽ quan trọng hơn là chỉ “bán được bao nhiêu”.

 

Vậy là thật sự phải khởi động lại trước 49 ngày.

Thực ra với thời gian thì tuyệt đối không nên so sánh bằng <..

if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
Phải làm như thế này để xem hiệu của hai giá trị... con người lúc nào cũng lặp lại cùng một sai lầm.

 

Có vẻ nhiều dịch vụ SaaS sẽ chết đấy.

 

Nếu thật sự ở mức đó thì chắc cũng nhanh chóng tìm ra lỗ hổng bảo mật từ mã dịch ngược.

 

Là thành viên của một trong các quỹ được nhắc đến ở trên, khi theo dõi quá trình này tôi cảm thấy vô cùng hoài nghi. Bề ngoài họ giương cao khẩu hiệu “AI có đạo đức”, nhưng bên trong quyết định này lại được áp xuống từ trên xuống mà không hề có bất kỳ sự đồng thuận nào từ cộng đồng.

Do xung đột địa chính trị bùng phát, dù đã lâu không còn hoạt động tôi vẫn thấy cần phải lên tiếng, nên đã mở một luồng thảo luận về đạo đức, nhưng chỉ nhận lại sự né tránh mang tính quan liêu. Sáng kiến này không phải là để bảo vệ các giá trị của mã nguồn mở, mà là vụ một liên minh khép kín của các tập đoàn vốn lớn mua nhãn hiệu Responsible AI từ một quỹ mã nguồn mở.