3 điểm bởi GN⁺ 12 ngày trước | 6 bình luận | Chia sẻ qua WhatsApp
  • GPT-2AI tạo sinh văn bản quy mô lớn được huấn luyện trên 8 triệu trang web, cho thấy khả năng viết tiếp một câu được cho trước một cách tự nhiên
  • OpenAI cho biết mô hình này có nguy cơ bị lạm dụng để tạo tin giả hoặc giả mạo danh tính trực tuyến, nên chỉ công bố phiên bản thu gọn thay vì toàn bộ mô hình
  • Các nhà nghiên cứu chỉ ra rằng biện pháp không công khai này chỉ là giải pháp tạm thời, và các mô hình tương tự sẽ sớm có thể được tái tạo
  • Một số người chỉ trích OpenAI thổi phồng mức độ nguy hiểm để thu hút chú ý, trong khi các chuyên gia khác đánh giá đây là cột mốc khơi mào thảo luận về đạo đức AI
  • Trường hợp này là bước ngoặt quan trọng cho thấy cách cân bằng giữa trách nhiệm khi công bố AI và tính tất yếu của sự lan rộng công nghệ

Cuộc tranh luận về việc OpenAI hoãn công bố GPT-2 và đạo đức AI

  • OpenAI đã phát triển mô hình tạo sinh văn bản mới GPT-2 có thể tạo ra các câu nhất quán theo chủ đề được đưa vào, nhưng đã hoãn công bố toàn bộ mô hình vì lý do an toàn và bảo mật
  • Thay vào đó, OpenAI chỉ công bố phiên bản thu gọn, còn bộ dữ liệu và mã huấn luyện dùng để đào tạo mô hình vẫn được giữ kín
  • Truyền thông mô tả điều này như “một dạng trí tuệ nhân tạo phải bị niêm phong vì nhân loại”, dẫn tới phản ứng thái quá, và giới chuyên gia đặt ra tranh luận về việc mức độ nguy hiểm đã bị phóng đại
  • Quyết định này đã khơi mào tranh luận về việc nên cho phép công bố AI algorithm có khả năng gây rủi ro đến mức nào

Đặc điểm kỹ thuật và hiệu năng của GPT-2

  • GPT-2 là một mô hình ngôn ngữ được huấn luyện trên văn bản từ 8 triệu trang web, theo cách dự đoán từ tiếp theo trong câu
  • Mô hình có thể tạo ra những câu tiếp diễn tự nhiên phù hợp với phong cách và chủ đề của câu đầu vào
  • Ví dụ, khi nhập câu “đã phát hiện một đàn kỳ lân nói tiếng Anh ở dãy Andes”, GPT-2 đã hoàn thành nó thành một đoạn văn mang dạng bài báo khoa học hư cấu
  • Mô hình cũng có thể tạo văn bản theo nhiều văn phong khác nhau như tiểu thuyết, chuyên mục, diễn văn
  • Văn bản được tạo ra đôi khi vẫn có lặp từ, chuyển chủ đề thiếu tự nhiên hoặc nội dung phi logic, nhưng được đánh giá là đã cải thiện đáng kể khả năng hiểu ngữ cảnh và độ nhất quán câu chữ so với các mô hình trước đó
  • GPT-2 có khả năng phân biệt nghĩa đa dạng của từnhận diện cách dùng hiếm gặp, đồng thời có tiềm năng ứng dụng trong dịch thuật, chatbot, công cụ hỗ trợ viết

Quyết định hoãn công bố và tranh cãi xung quanh

  • OpenAI lo ngại GPT-2 có thể bị lạm dụng để tạo tin giả, giả mạo nhân vật trực tuyến, phát tán spam
  • Vì vậy, tổ chức này chỉ công bố phiên bản thu gọn thay vì toàn bộ mô hình, đồng thời giữ kín dữ liệu huấn luyện và mã nguồn
  • Tuy nhiên, nhiều nhà nghiên cứu AI cho rằng biện pháp không công khai này chỉ là phản ứng tạm thời
    • Robert Frederking của Carnegie Mellon cho biết: “Công nghệ OpenAI օգտագործած không phải là mới, và các nhà nghiên cứu khác cũng sẽ sớm có thể tạo ra những mô hình tương tự”
  • Có ý kiến cho rằng nếu có đủ vốn và tri thức, các tổ chức hoàn toàn có thể xây dựng mô hình tương tự chỉ với các dịch vụ đám mây như AWS
  • Một số nhà nghiên cứu chỉ trích OpenAI thổi phồng mức độ nguy hiểm để thu hút chú ý, đồng thời làm hạn chế cơ hội nghiên cứu trong học thuật
  • Ngược lại, David Bau của MIT đánh giá quyết định này là một cử chỉ nhằm khơi mào thảo luận về đạo đức AI, và nhận xét rằng “điểm tích cực là OpenAI đã khiến mọi người chú ý đến vấn đề này”

Vấn đề công bố AI và phán đoán đạo đức

  • John Bowers của Berkman Klein Center thuộc Harvard giải thích rằng việc có nên công bố công nghệ AI hay không là vấn đề phân tích chi phí - lợi ích
  • Ông cho biết mình ủng hộ công bố các thuật toán tạo sinh văn bản góp phần thúc đẩy xử lý ngôn ngữ tự nhiên, nhưng cho rằng cần thận trọng với công nghệ nhận diện hình ảnh có thể bị lạm dụng cho giám sát hoặc thao túng
  • Ông đặc biệt chỉ ra rằng công nghệ deepfake là lĩnh vực mà “tác hại lớn hơn rất nhiều so với lợi ích”
  • Theo Bowers, những đánh giá như vậy cho thấy sự non trẻ của lĩnh vực AI
    • Hiện nay, trong lĩnh vực machine learning vẫn thiếu các tiêu chuẩn có hệ thống để đánh giá tác động xã hội và các cân nhắc đạo đức của công nghệ

Giới hạn của việc kiểm soát sự lan rộng công nghệ và các trường hợp tương tự trong lịch sử

  • Như lịch sử gần đây đã cho thấy, các nỗ lực kiềm chế hoặc kiểm soát sự lan rộng của công cụ AI có khả năng cao sẽ thất bại
  • Frederking nêu ra trường hợp thất bại trong việc quản lý công nghệ mã hóa vào thập niên 1990 như một tiền lệ tương tự
    • Khi đó, chính phủ đã thúc đẩy dự luật lắp đặt backdoor để nghe lén liên lạc, nhưng bị vô hiệu hóa khi Phil Zimmerman phát triển công cụ mã hóa PGP
    • Sau đó, công nghệ mã hóa mạnh cũng dễ dàng được tiếp cận từ nước ngoài, khiến việc quản lý trên thực tế trở nên bất khả thi
  • Frederking nhấn mạnh: “Khi thời điểm của tiến bộ khoa học đến, chúng ta không thể ngăn nó lại. Điều chúng ta có thể làm là quyết định cách ứng phó

Kết luận

  • Việc hoãn công bố GPT-2 được đánh giá là một trường hợp quan trọng xoay quanh rủi ro của công nghệ AI và trách nhiệm công bố
  • Quyết định của OpenAI cho thấy bài toán cân bằng giữa đạo đức AI, tính minh bạch và tính tất yếu của sự lan rộng công nghệ
  • Về dài hạn, cần xây dựng các tiêu chuẩn hài hòa giữa tính mở của nghiên cứu AI và an toàn xã hội

6 bình luận

 

Chính xác hơn thì có vẻ bài này được đăng lên vì lý do OpenAI thời còn Amodei giữ kín GPT-2 và lý do giữ kín mô hình Mythos là tương tự nhau. Amodei khi đó và Amodei bây giờ chẳng có gì thay đổi..

 
winterjung 12 ngày trước

Tham khảo thêm, nếu xem nội dung bài viết nhắc đến GPT-2 và năm đăng bài gốc là 2019 thì có thể thấy đây là trong bối cảnh gần đây Anthropic nói sẽ không công khai model Mytho vì quá nguy hiểm, và trước kia OpenAI cũng từng làm ầm ĩ với GPT-2 theo cách tương tự.

Trong trường hợp của HN, có vẻ có thói quen gắn năm nếu là bài đăng cũ (tôi không rõ có phải tự động gắn hay không), nên tôi nghĩ GeekNews cũng hiển thị như vậy thì sẽ hay hơn.

 

Phần lớn đều được thiết lập để mang về, nhưng lần này lại bị sót một cách lạ và đã được xử lý như vậy. Tôi sẽ sửa để không đụng vào phần này.

 
savvykang 12 ngày trước

Có phải Sam Altman đang đồng cảm với Oppenheimer không? Nếu thấy nguy hiểm thì lẽ ra có thể hoàn thiện cho an toàn rồi mới công bố, nên tôi nghĩ việc lại khuyến khích người ta dùng thì không nhất quán trước sau. Tôi cũng cho rằng trường hợp Anthropic Mythos cũng tương tự.

 
unsure4000 12 ngày trước

Tôi thấy điều Anthropic nói thì đáng tin, nhưng sao điều OpenAI nói lại khó tin đến vậy nhỉ?
Có phải vì Anthropic đã show-and-proof bằng cách tạo bản vá zero-day nên mới vậy không?
Hay là vì OpenAI đã dùng đi dùng lại kịch bản này nhiều lần rồi?

 
Ý kiến trên Hacker News
  • Tôi nghĩ ai đó nên gom lại những khoảnh khắc huyền thoại của OpenAI kiểu này
    Ví dụ như “GPT-2 quá nguy hiểm”, “DALL-E 64x64 quá đáng sợ”, “đạt được AGI”, hay “Q*/strawberry giải được bài toán khiến các nhà nghiên cứu hoảng loạn”
    Tôi cũng thích Codex, nhưng kiểu PR cường điệu này vừa buồn cười vừa mệt mỏi
    Cả ngày nay tôi cố sửa một lỗi UI đơn giản bằng Codex GPT-5.4, Claude Opus 4.6-1M, Gemini 3.1 Pro các kiểu nhưng đều thất bại, cuối cùng phải tự mở code ra sửa
    Chỉ mất 20 phút để xử lý, mà buồn cười ở chỗ là tôi hoàn toàn không biết ngôn ngữ hay framework đó

    • Câu “tự mở file ra sửa” bây giờ nghe như một tin nóng giật gân vậy
    • Tôi còn tự hỏi có khi các model cố tình không sửa lỗi UI vì lo ngại an toàn. Có lẽ chúng sợ UX tốt quá thì sẽ thống trị thế giới mất
    • Giá mà bạn cho xem code, hoặc ít nhất là một phần. Không có ngữ cảnh thì chẳng ai học được gì cả: là vấn đề của model, độ khó của tác vụ, hay do lập trình viên
    • Buồn cười ở chỗ bạn đã phí cả ngày chỉ vì không muốn nhìn một file duy nhất
      Nhưng dù sao bạn cũng sửa được trong 20 phút, nên phải cẩn thận — có khi bạn đã học được thứ gì đó rồi
    • Trước đây tôi cũng từng nói với quản lý rằng tôi tự tay viết code từng dòng một
      Tôi nghĩ đó là cách tốt nhất để giữ mô hình tinh thần thật rõ ràng
      Lỗi UI hay CSS thì model làm thật sự dở. Unit test là bắt buộc
  • Vụ tranh cãi lần này có vẻ là phản ứng với Mythos, nhưng tôi cho rằng quyết định của OpenAI khi đó là đúng
    Khi GPT-2 được công bố, cả ngành đã thay đổi hoàn toàn, và đó không chỉ là nghiên cứu đơn thuần mà là tín hiệu của một kỷ nguyên mới
    Mythos cũng vậy, nó cho thấy điều chưa từng có trước đây
    Tôi đã đọc bản whitepaper dài 250 trang, năng lực hack của nó đáng kinh ngạc, và tôi cũng cảm nhận được cải thiện an toàn rất lớn chỉ trong một tháng gần đây
    Dành thêm thời gian để cân nhắc tác động xã hội là điều tích cực

    • Tôi nhớ tới định luật Gates
  • Dù trúng một cách vô tình, nhưng sự bùng nổ nội dung chất lượng thấp hiện giờ đúng là có vẻ là vấn đề thật

    • Không chỉ vô tình đúng đâu, OpenAI đã dự đoán rất chính xác từ năm 2019 rồi
      Họ nói rằng “hình ảnh, âm thanh và video tổng hợp sẽ làm giảm chi phí tạo nội dung giả, và công chúng cần hoài nghi hơn với văn bản trên mạng”, và bây giờ đúng là tình hình như vậy
      Bài viết liên quan
    • Đây đã là vấn đề thực tế rồi. Một phần lớn của internet đầy rẫy thông tin không đáng tin cậy
    • Thật ra từ trước đến nay phần lớn nội dung vốn đã chất lượng thấp. Tin rằng thời trước LLM tốt đẹp hơn chỉ là ký ức chọn lọc thôi
    • Nếu loại nội dung AI chất lượng thấp này lại quay trở lại làm dữ liệu huấn luyện cho AI, sẽ sinh ra vòng luẩn quẩn kiểu AI học từ rác do AI tạo ra. Làm tôi nhớ đến ‘Idiocracy’
  • Lúc đầu tôi không nhìn thấy năm nên giật mình thật
    OpenAI đang gặp khó trong việc gọi vốn, lại thêm bài chân dung Altman trên New Yorker cũng không mấy tích cực, nên có thể hiểu được nếu họ quay lại chiến lược PR kiểu “làm ơn ngăn nó bắn bà ngoại tôi”

    • Tôi cũng không thấy năm trong tiêu đề nên mới giật mình. Cảm giác như tiêu đề này đã cướp mất ký ức yên bình của bà tôi vậy
    • Câu “làm ơn ngăn nó bắn bà ngoại tôi” tóm tắt vụ này ngắn gọn nhất
    • Giờ chúng ta đang sống trong thời đại không còn biết xấu hổ nữa rồi
  • Có câu rằng “nếu thật sự là công nghệ nguy hiểm thì sẽ không thể được tung ra với giá 20 đô một tháng”
    Thứ thật sự nguy hiểm sẽ không bao giờ được phát cho công chúng
    Thế mà các chuyên gia vẫn bỏ qua logic cơ bản này thì thật kỳ lạ

    • Cũng có người phản biện: “Thế còn ghost guns thì sao?”
  • Dạo này câu “quá nguy hiểm nên không thể công khai” đang ám chỉ Mythos của Anthropic
    Họ nói nó mạnh đến mức chỉ các công ty được phê duyệt mới có thể truy cập

    • Nếu là tôi bán công nghệ cho doanh nghiệp, chắc tôi cũng sẽ nói “quá nguy hiểm nên chỉ doanh nghiệp mới được dùng” thôi
    • Nhưng điều mỉa mai là doanh nghiệp mới chính là bàn tay phù hợp để cầm vũ khí nguy hiểm
  • “Quá nguy hiểm để công khai” thật ra có nghĩa là “không công khai trọng số model dưới dạng mã nguồn mở
    Cuối cùng thì trọng số cũng đã được công bố, và bối cảnh này khác với Anthropic Mythos

  • Hồi đó tôi từng huấn luyện Transformer-XL với Ben Mann ở bên ngoài OpenAI
    Ban đầu chúng tôi định công bố trọng số kiểu GPT-2.5, nhưng bạn bè ở OpenAI đã khuyên nên giữ kín
    Bài viết liên quan

    • Có lẽ tôi sẽ ôm mối hận với những “người bạn ở OpenAI” đó suốt đời
    • Cuối cùng thì hóa ra mọi người đều bị lừa. Họ giương cao tinh thần mã nguồn mở nhưng thực tế lại đóng kín
    • Connor Leahy cũng từng làm một bản sao GPT-2, và OpenAI đã trực tiếp liên hệ để thuyết phục anh ấy
      Sau đó anh ấy ghi lại chi tiết trải nghiệm của mình
      Anh nói OpenAI rất lịch sự và thực lòng trao đổi, thậm chí còn chia sẻ cả quan điểm của chính phủ và cơ quan tình báo về rủi ro
      Cuối cùng anh quyết định từ bỏ việc phát hành model với suy nghĩ “phòng bệnh hơn chữa bệnh”
      Anh cũng nói muốn để lại một tiền lệ cho thời điểm sau này khi sẽ xuất hiện những model còn nguy hiểm hơn
  • Những bài hay luôn được đăng lên sau khi người Mỹ đã ngủ

    • OP nói là đăng sớm quá nên nó đã tụt khỏi trang chính
  • Tôi vẫn còn nhớ ví dụ bài báo kỳ lân do GPT-2 tạo ra mà mình đọc năm 2019
    Khi đó thật sự rất sốc. Còn gây ấn tượng hơn cả GPT-3.5 hay 4 nữa

    • “Kỳ lân có bốn cái sừng” đúng là một cảnh kinh điển