4 điểm bởi GN⁺ 2026-02-14 | 1 bình luận | Chia sẻ qua WhatsApp
  • OpenAI gần đây đã xóa cụm từ ‘an toàn’ khỏi tuyên bố sứ mệnh và nêu rõ mục tiêu mới là bảo đảm trí tuệ nhân tạo mang lại lợi ích cho toàn thể nhân loại
  • Sự thay đổi này diễn ra đồng thời với việc chuyển đổi từ cấu trúc phi lợi nhuận sang cấu trúc trọng tâm lợi nhuận, cùng lúc huy động các khoản đầu tư quy mô lớn từ Microsoft, SoftBank và các bên khác
  • Cấu trúc mới được tách thành quỹ phi lợi nhuận (OpenAI Foundation)công ty công ích vì lợi nhuận (OpenAI Group), trong đó bên trước nắm khoảng 26% cổ phần của bên sau
  • Tuy nhiên, việc nhắc đến an toàn đã biến mất khỏi sứ mệnh, và cả hai tổ chức đều không có trách nhiệm được nêu rõ ràng liên quan đến an toàn, làm dấy lên lo ngại về sự suy yếu trách nhiệm giải trình của hội đồng quản trị
  • Thay đổi lần này được xem là một phép thử xem AI sẽ ưu tiên lợi ích của toàn xã hội hay lợi ích của cổ đông

Thay đổi sứ mệnh và tái cấu trúc của OpenAI

  • Đến năm 2023, OpenAI vẫn nêu rõ mục tiêu là “phát triển AI mang lại lợi ích cho nhân loại một cách an toàn”, nhưng trong báo cáo IRS năm 2024 đã sửa thành “bảo đảm trí tuệ nhân tạo mang lại lợi ích cho toàn thể nhân loại
    • Cả từ ‘safely’ và cụm ‘không bị ràng buộc bởi nhu cầu tạo ra lợi nhuận tài chính (unconstrained by a need to generate financial return)’ đều đã bị xóa
    • Theo Platformer, ‘nhóm căn chỉnh sứ mệnh (mission alignment team)’ cũng đã bị giải thể
  • OpenAI vẫn đề cập trên website đến việc cùng lúc thúc đẩy an toàn, năng lực và tác động tích cực, nhưng trong sứ mệnh chính thức không còn cách diễn đạt nào liên quan đến an toàn

Chuyển đổi từ phi lợi nhuận sang vì lợi nhuận

  • OpenAI được thành lập năm 2015 như một viện nghiên cứu phi lợi nhuận, công bố kết quả nghiên cứu và cung cấp mà không thu tiền bản quyền
  • Năm 2019, dưới sự dẫn dắt của Sam Altman, công ty thành lập công ty con vì lợi nhuận, và Microsoft đầu tư ban đầu 1 tỷ USD
    • Đến năm 2024, tổng vốn đầu tư lũy kế của Microsoft đã đạt 13,8 tỷ USD
  • Cuối năm 2024, trong đợt huy động thêm 6,6 tỷ USD, điều kiện được đặt ra là nếu không chuyển đổi thành công ty vì lợi nhuận theo mô hình truyền thống thì khoản này sẽ được chuyển thành nợ

Cấu trúc pháp lý mới và các bên liên quan

  • Tháng 10/2025, thông qua thỏa thuận với tổng chưởng lý bang California và Delaware, OpenAI được tái tổ chức theo mô hình công ty công ích (public benefit corporation)
    • Tách thành OpenAI Foundation (phi lợi nhuận) và OpenAI Group (vì lợi nhuận)
    • Foundation nắm khoảng một phần tư cổ phần của Group, còn Microsoft nắm 27%
  • Công ty công ích phải cân nhắc lợi ích xã hội và môi trường, nhưng việc cân bằng giữa lợi nhuận và lợi ích công vẫn phụ thuộc vào quyền quyết định của hội đồng quản trị
  • SoftBank hoàn tất khoản đầu tư 41 tỷ USD vào cuối năm 2025, sau đó tiếp tục đàm phán để đầu tư thêm 30 tỷ USD

Các điều khoản liên quan đến an toàn và những giới hạn

  • Thỏa thuận tái cấu trúc bao gồm việc thành lập ủy ban an toàn và an ninh, quyền dừng ra mắt sản phẩm, và quyền kiểm soát việc thành lập hội đồng quản trị
    • Hội đồng quản trị của OpenAI Group, trong các vấn đề liên quan đến an toàn, phải ưu tiên xem xét sứ mệnh hơn lợi ích tài chính
  • Tuy nhiên, do sứ mệnh không còn nêu rõ vấn đề an toàn, cơ sở pháp lý để hội đồng thực sự ưu tiên an toàn trở nên yếu hơn
  • Phần lớn thành viên hội đồng quản trị của hai tổ chức là cùng một nhóm người, nên tồn tại vấn đề chức năng giám sát trên thực tế bị chồng lặp

Mô hình thay thế và tranh luận về quản lý

  • Năm 1992, khi Health Net chuyển sang vì lợi nhuận, đã có tiền lệ bị quy định phải chuyển 80% tài sản sang một quỹ phi lợi nhuận
  • Philadelphia Inquirer năm 2016 chuyển thành công ty công ích do Lenfest Institute phi lợi nhuận sở hữu, nhằm duy trì mục tiêu báo chí phục vụ cộng đồng địa phương
  • Một số tổ chức phi lợi nhuận ở California cho rằng toàn bộ tài sản của OpenAI phải được chuyển sang một tổ chức phi lợi nhuận độc lập
  • Bài viết chỉ ra rằng hội đồng quản trị OpenAI đã từ bỏ sứ mệnh an toàn, và việc chính quyền bang cho phép điều đó là một thất bại về quản trị

Mở rộng đầu tư và định giá thị trường

  • Tính đến đầu năm 2026, OpenAI có thể huy động tối đa 60 tỷ USD đầu tư từ Amazon, Nvidia, Microsoft và các bên khác
  • Giá trị doanh nghiệp tăng từ 300 tỷ USD vào tháng 3/2025 lên hơn 500 tỷ USD vào tháng 10/2025
  • Khả năng IPO (phát hành cổ phiếu lần đầu ra công chúng) cũng được nhắc đến, và điều này được dự báo sẽ làm tăng áp lực tối đa hóa lợi nhuận cho cổ đông
  • Quỹ của OpenAI Foundation được ước tính khoảng 130 tỷ USD, nhưng đây là con số ước tính dựa trên giá trị thị trường vì công ty chưa niêm yết

Ý nghĩa xã hội

  • Việc OpenAI thay đổi sứ mệnh và tái cấu trúc được xem là một trường hợp thử nghiệm xem doanh nghiệp AI sẽ ưu tiên lợi ích công hay lợi nhuận
  • Việc xóa cụm từ về an toàn có thể được diễn giải là một bước lùi trong trách nhiệm xã hội và quản lý rủi ro của AI
  • Trong thời gian tới, hiệu quả thực tế của mô hình công ty công íchvai trò giám sát của chính phủ sẽ nổi lên như những vấn đề then chốt

1 bình luận

 
GN⁺ 2026-02-14
Ý kiến trên Hacker News
  • Có thể xem tuyên bố sứ mệnh chính thức của từng năm trong hồ sơ IRS 990 của ProPublica
    Tôi đã tập hợp chúng vào trang revision của Gist để có thể nhìn nhanh lịch sử thay đổi theo từng năm
    Tôi cũng đã tổng hợp chi tiết hơn trong bài blog của mình

    • Cái này buồn cười thật. Nó làm tôi nhớ đến cảnh sửa đổi điều răn trong Animal Farm — kiểu châm biếm như “Mọi con vật đều bình đẳng” biến thành “Mọi con vật đều bình đẳng, nhưng có một số con vật bình đẳng hơn những con khác”
    • Cảm ơn vì đã thực sự trích xuất lịch sử thay đổi sứ mệnh. Đặc biệt là năm 2021 vẫn là “...that benefits humanity”, rồi đến năm 2022 thêm “safely” thành “...that safely benefits humanity”. Nhưng ở phiên bản mới nhất, “safely” đã biến mất hoàn toàn và câu cũng ngắn hơn nhiều
      Những từ đã bị xóa gồm responsibly, safe, technology, world v.v.
    • Việc trích xuất các câu từ năm 2016 đến 2024 rồi dùng Claude Code để chỉnh ngày commit và biến nó thành như một git repo thật sự rất tuyệt. Đây là một ví dụ hay về lưu trữ hồ sơ tự động
    • Tôi có cảm giác trong Gist bị thiếu khá nhiều dấu câu
    • Thật sự rất thú vị. Tôi cũng tò mò không biết Anthropic có tài liệu nào ghi lại sự thay đổi sứ mệnh theo kiểu này không
  • Việc mục persuasion/manipulation bị loại khỏi danh mục theo dõi trong bản cập nhật Preparedness Framework tháng 4/2025 là một tín hiệu lớn
    Theo bài báo của Fortune, OpenAI hiện không còn đánh giá rủi ro thuyết phục/thao túng trước khi phát hành mô hình nữa, mà thay vào đó hạn chế bằng điều khoản sử dụng
    Điều này gần như đã định nghĩa “an toàn AI” theo một cách rất cụ thể — cũng như thiết kế vũ khí hủy diệt hàng loạt, AI mang tính thao túng có thể khiến con người mất khả năng nhận thức thực tại cũng có thể là mối đe dọa với nhân loại

    • “Các hệ thống khiến con người mất khả năng nhận thức thực tại” à, chẳng phải đó chính là mạng xã hội và công nghệ quảng cáo sao?
      Con người đã chai lì với kỹ thuật thao túng suốt hàng chục năm rồi, giờ chỉ là quy mô và hiệu suất tăng lên mà thôi. Cuối cùng thiểu số sẽ giàu hơn còn đa số sẽ khổ hơn
    • Đó mới chính là mục đích thật sự của AI. Người kiểm duyệt là con người thì còn cảm thấy cắn rứt lương tâm, còn AI sẽ thực hiện kiểm duyệt theo lệnh một cách hoàn hảo.
      Đáng sợ hơn nữa là kiểu profiling theo phong cách Cambridge Analytica có thể được siêu cá nhân hóa để cung cấp nội dung thao túng riêng cho từng người
    • Tôi nghĩ việc “đánh mất nhận thức về thực tại” cuối cùng vẫn là trách nhiệm cá nhân. Nếu liên tục bị lừa mà vẫn không chịu tự học hỏi, thì đó là hệ quả của sự lười biếng
  • Ở phiên bản 2024, việc xóa cụm “unconstrained by a need to generate financial return” mới là thay đổi mang tính quyết định. Bỏ nó đi thì còn lại gì nữa?

    • Chỉ còn lợi nhuận
    • Hơn nữa, với tư cách là một tổ chức phi lợi nhuận 501(c)(3), những thay đổi này có thể còn gây vấn đề pháp lý
  • Việc bỏ từ “safely” thực ra có thể xem là thành thật hơn. Giống như lúc Google bỏ khẩu hiệu “Don’t be evil”, tức là tháo bỏ lớp mặt nạ đạo đức giả

    • Tôi không đồng ý. Người ta vẫn hoàn toàn có thể phẫn nộ với những công ty công khai xấu xa như Palantir hay Broadcom
    • Ngay cả trong những mối quan hệ lợi ích phức tạp, vẫn có những tổ chức làm việc một cách an toàn. Nếu là những nhân tài hàng đầu thế giới thì ít nhất cũng nên kỳ vọng được mức đó
    • Tôi đã làm nghiên cứu AI ở Google suốt 10 năm, và quyết định không tung công nghệ proto LLM ra thế giới thực sự là do Sundar đưa ra. Ông ấy cho rằng thế giới chưa thể chịu đựng nổi
  • Nó tạo cảm giác déjà vu đầy hoài nghi giống như khi Google bỏ “Don’t be evil” vậy

    • Thay vào đó nó thành “Do the right thing (for the shareholders)
  • Câu hỏi cuối cùng là thế này — chúng ta sẽ được tận hưởng cô gái mèo robot trước, hay sẽ đi thẳng đến Terminator luôn?

    • Từ nguyên của “robot” là từ tiếng Slav “rabu (nô lệ)”. Kiểu đùa này phản ánh tư duy nô lệ hóa. Hãy sửa lại đầu óc hoặc biến mất đi
  • Sứ mệnh của OpenAI ngay từ đầu vốn đã là một tuyên bố nghe như trò đùa. Họ từng nói kiểu “nếu nghiên cứu của chúng tôi góp phần giúp người khác đạt được AGI thì sứ mệnh đã hoàn thành”, rồi lại kêu lên Quốc hội khi mô hình mã nguồn mở dùng mô hình của họ để huấn luyện

  • Tôi không hiểu tại sao các công ty lại tạo ra mấy câu sứ mệnh như thế này. Xóa câu “chúng tôi sẽ không làm điều ác” cũng không khiến họ ác hơn, mà cuối cùng chỉ càng lộ ra sự đạo đức giả

  • Rốt cuộc sứ mệnh mới chỉ là thay bằng “profitably”.
    Trước đây sếp từng nhốt tôi trong phòng họp cả ngày để nghĩ ra câu sứ mệnh, rồi đóng khung treo lên và chẳng ai nhìn lại nữa. Cuối cùng nó chỉ là đồ trang trí cho marketing

  • Tháng 6/2024, cựu giám đốc NSA Paul Nakasone gia nhập hội đồng quản trị OpenAI, và đến tháng 10/2025 họ tuyên bố cho phép tạo nội dung người lớn

    • Đúng là một công ty ghê rợn. Nó giống như sự kết hợp giữa lòng tham và giám sát
    • Liên kết video liên quan
    • Những công ty này đã dùng thành quả lao động 10 năm của tôi để huấn luyện mà không xin phép. Nếu họ còn lấy cả ảnh khỏa thân của tôi để làm nội dung khiêu dâm thì tôi thậm chí không muốn tưởng tượng mình sẽ giận dữ đến mức nào