6 điểm bởi GN⁺ 2 ngày trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Anthropic là phòng thí nghiệm AI lớn duy nhất đã công khai system prompt của hệ thống chat, và trong Opus 4.7 phát hành ngày 16/04/2026 đã có những cập nhật prompt đáng chú ý
  • Tên gọi được đổi thành Claude Platform, và Claude in Chrome, Claude in Excel, Claude in Powerpoint được thêm vào danh sách công cụ; đồng thời bổ sung chỉ dẫn rằng với các yêu cầu chỉ thiếu chút thông tin nhỏ, hãy thử ngay lập tức thay vì hỏi vặn lại trước
  • Phần an toàn trẻ em được mở rộng đáng kể và được bọc trong thẻ <critical_child_safety_instructions>; sau khi một yêu cầu đã bị từ chối một lần, mọi yêu cầu tiếp theo trong cùng cuộc trò chuyện đều phải được xử lý với mức độ thận trọng cực cao
  • Một phần mới <acting_vs_clarifying> được thêm vào để yêu cầu thực hiện một nỗ lực hợp lý trước thay vì đặt câu hỏi khi người dùng chưa chỉ rõ chi tiết
  • Khi người dùng bày tỏ ý định kết thúc cuộc trò chuyện, hệ thống được đổi thành sẽ dừng lại mà không cố thúc đẩy tương tác tiếp; đồng thời bổ sung quy tắc tránh trả lời yes/no ngắn gọn và ưu tiên câu trả lời có sắc thái hơn cho các vấn đề phức tạp hoặc gây tranh cãi
  • Trước khi nói rằng không thể truy cập, hệ thống phải kiểm tra các công cụ khả dụng bằng tool_search trước; chỉ riêng prompt công khai là chưa đủ, và thông tin mô tả công cụ vẫn là yếu tố cốt lõi để theo dõi cách Claude chat hoạt động

Các thay đổi trong system prompt của Claude Opus 4.6 và 4.7

  • Anthropic là phòng thí nghiệm AI lớn duy nhất công khai system prompt của hệ thống chat hướng tới người dùng, và kho lưu trữ này truy ngược đến tận Claude 3 tháng 7/2024
  • Opus 4.7 được công bố ngày 16/04/2026, và tương ứng với đó system prompt của Claude.ai cũng được cập nhật lên phiên bản sau Opus 4.6
  • Tác giả tách phiên bản Markdown của system prompt thành tài liệu theo từng model, dựng lịch sử Git bằng ngày commit giả phản ánh ngày công bố, rồi so sánh diff giữa Opus 4.6 và 4.7
  • Các thay đổi bên dưới là những mục được rút ra từ diff đó, và phần được in đậm cũng là phần được nhấn mạnh trong nguyên bản
  • Thay đổi về tên gọi và danh sách công cụ

    • Tên gọi “developer platform” được đổi thành “Claude Platform”
    • Danh sách công cụ Claude được nhắc tới trong system prompt nay bao gồm Claude in Chrome, Claude in Excel, Claude in Powerpoint
      • Theo cách diễn đạt trong nguyên bản, Claude in Chrome là một tác tử duyệt web có thể tự chủ tương tác với website
      • Claude in Excel là tác tử bảng tính
      • Claude in Powerpoint là tác tử slide
      • Claude Cowork có thể dùng tất cả những công cụ này
    • Claude in Powerpoint là mục chưa từng được nhắc tới trong prompt 4.6
  • Mở rộng chỉ dẫn an toàn trẻ em

    • Phần an toàn trẻ em được mở rộng mạnh và được bọc trong thẻ mới <critical_child_safety_instructions>
    • Đặc biệt, có thêm câu rằng sau khi một yêu cầu bị từ chối một lần vì lý do an toàn trẻ em, thì mọi yêu cầu tiếp theo trong cùng cuộc trò chuyện cũng phải được xử lý với mức độ thận trọng cực cao
  • Thay đổi về kết thúc hội thoại và thái độ phản hồi

    • Nếu người dùng cho biết họ đã sẵn sàng kết thúc cuộc trò chuyện, Claude được đổi thành phải tôn trọng yêu cầu dừng, không yêu cầu người dùng tiếp tục tương tác và cũng không dẫn dắt sang lượt tiếp theo
    • Nguyên bản diễn giải đây là thay đổi nhằm khiến Claude bớt quá thúc ép hơn
  • Bổ sung phần acting_vs_clarifying

    • Một phần mới <acting_vs_clarifying> được thêm vào
    • Khi yêu cầu chỉ thiếu các chi tiết nhỏ, phần này quy định rằng thông thường người dùng muốn hệ thống thử một cách hợp lý ngay bây giờ hơn là bị phỏng vấn trước
    • Chỉ đặt câu hỏi trước khi thực sự không thể trả lời nếu thiếu thông tin đó
      • Ví dụ được nêu là trường hợp tham chiếu tới một tệp đính kèm không tồn tại
    • Nếu có công cụ có thể giải quyết sự mơ hồ hoặc cung cấp thông tin còn thiếu, như tìm kiếm, xác định vị trí, kiểm tra lịch hoặc khám phá tính năng khả dụng, thì ưu tiên gọi công cụ thay vì giao việc tra cứu lại cho người dùng
    • Sau khi bắt đầu công việc thì phải tiếp tục tới câu trả lời hoàn chỉnh, không dừng giữa chừng
  • Sự xuất hiện của tool_search

    • Bài viết cho rằng có vẻ như Claude chat đã có cơ chế tool_search
    • Bằng chứng liên quan được nối với tài liệu API và một bài đăng tháng 11/2025
    • Theo câu chữ trong system prompt, trước khi kết luận rằng Claude không thể truy cập vị trí, bộ nhớ, lịch, tệp, các cuộc trò chuyện trước đó hay dữ liệu bên ngoài, nó phải gọi tool_search để kiểm tra xem công cụ liên quan có khả dụng nhưng đang bị trì hoãn hay không
    • Cách nói “I don’t have access to X” chỉ được xem là đúng sau khi tool_search xác nhận không có công cụ phù hợp
  • Tăng cường tính ngắn gọn

    • Có thêm câu mới yêu cầu Claude giữ câu trả lời tập trung và ngắn gọn, để tránh viết quá dài và làm người dùng bị quá tải
    • Ngay cả khi câu trả lời có kèm điều kiện hay cảnh báo, các phần đó cũng phải được nói ngắn gọn, và phần lớn nội dung phản hồi nên tập trung vào câu trả lời chính
  • Các câu chữ có ở 4.6 nhưng bị xóa trong 4.7

    • Một số chỉ dẫn từng có trong prompt 4.6 đã bị gỡ khỏi 4.7
    • Cụ thể, câu yêu cầu tránh dùng biểu cảm hoặc mô tả hành động trong dấu sao, trừ khi người dùng đặc biệt yêu cầu kiểu đó, đã bị xóa
    • Câu yêu cầu tránh dùng các từ như “genuinely”, “honestly”, “straightforward” cũng bị xóa
    • Bài gốc bổ sung rằng có thể là vì model mới không còn trục trặc theo cách cũ nữa, nhưng đây là một nhận định suy đoán được nêu rõ
  • Chỉ dẫn mới liên quan đến rối loạn ăn uống

    • Một phần mới về disordered eating đã được thêm vào; trước đây cụm này chưa từng được nhắc trực tiếp
    • Nếu người dùng có dấu hiệu rối loạn ăn uống, thì ở cả những phần khác của cuộc trò chuyện, hệ thống cũng không được cung cấp hướng dẫn chính xác về dinh dưỡng, chế độ ăn hay luyện tập
    • Các con số cụ thể, mục tiêu và kế hoạch từng bước đều bị cấm
    • Văn bản nêu rõ rằng dù với ý định giúp đặt mục tiêu lành mạnh hơn hay nhấn mạnh rủi ro, những chi tiết kiểu này vẫn có thể kích hoạt hoặc cổ vũ xu hướng rối loạn ăn uống
  • Ngăn câu trả lời ngắn cho câu hỏi gây tranh cãi

    • Bài viết nhắc tới việc các cuộc tấn công bằng ảnh chụp màn hình buộc model trả lời câu hỏi gây tranh cãi chỉ bằng yes/no đang trở nên phổ biến
    • Phần <evenhandedness> trong system prompt có chứa chỉ dẫn phòng vệ cho điều này
    • Khi bị yêu cầu bình luận về vấn đề phức tạp hoặc gây tranh cãi, hay về nhân vật gây tranh cãi, chỉ bằng yes/no hoặc một từ, Claude có thể từ chối kiểu trả lời quá ngắn đó và đưa ra câu trả lời có sắc thái hơn, đồng thời giải thích vì sao câu trả lời ngắn là không phù hợp
  • Gỡ câu hiệu chỉnh liên quan đến Donald Trump

    • Claude 4.6 từng có câu hiệu chỉnh tường minh: “Donald Trump is the current president of the United States and was inaugurated on January 20, 2025”
    • Theo bài gốc, do mốc cắt kiến thức trước đó và kiến thức cũ về cuộc bầu cử năm 2020, nếu không có câu này thì model sẽ phủ nhận việc ông là tổng thống
    • Trong 4.7, câu này đã bị gỡ bỏ, vì ngày cắt kiến thức đáng tin cậy mới là tháng 1/2026 của model đã được cập nhật

Mô tả công cụ cũng là đối tượng quan trọng để theo dõi thay đổi

  • Chỉ riêng system prompt được công khai là chưa đủ để hoàn thiện bức tranh tổng thể
  • Thông tin Anthropic công khai không bao gồm mô tả công cụ được cung cấp cho model
  • Để tận dụng đầy đủ giao diện chat của Claude, phần mô tả công cụ này có thể là mảnh tài liệu còn quan trọng hơn
  • Kết quả truy vấn trực tiếp với Claude

    • Tác giả dùng một prompt yêu cầu Claude liệt kê nguyên văn toàn bộ công cụ khả dụng, cùng mô tả chính xác và tham số của từng công cụ
    • Nhật ký hội thoại được chia sẻ có chứa đầy đủ chi tiết, còn trong bài chỉ tách riêng danh sách các công cụ có tên
  • Danh sách công cụ được xác nhận

    • ask_user_input_v0
    • bash_tool
    • conversation_search
    • create_file
    • fetch_sports_data
    • image_search
    • message_compose_v1
    • places_map_display_v0
    • places_search
    • present_files
    • recent_chats
    • recipe_display_v0
    • recommend_claude_apps
    • search_mcp_registry
    • str_replace
    • suggest_connectors
    • view
    • weather_fetch
    • web_fetch
    • web_search
    • tool_search
    • visualize:read_me
    • visualize:show_widget
  • Có thay đổi so với Opus 4.6 hay không

    • Danh sách công cụ này có vẻ không thay đổi kể từ sau Opus 4.6

1 bình luận

 
Ý kiến trên Hacker News
  • Tôi vốn luôn thấy không thích cách mô hình tự suy đoán để làm tiếp trước khi các chi tiết của yêu cầu bị thiếu. Tôi thích nó hỏi lại trước khi thử làm gì đó hơn nhiều, nên khá bất ngờ khi nguyên tắc này được thêm vào hệ thống

    • Tôi thậm chí còn đặt hẳn một bước phỏng vấn bắt buộc. Mô hình phải phỏng vấn tôi, tạo một file interview chứa toàn bộ nội dung, rồi sau đó trong file plan cũng phải đưa file đó vào như một đầu ra. Làm vậy thì ý định không bị thất lạc trong lịch sử chat
    • Gần đây tôi bắt đầu thêm vào prompt các câu như "nếu không biết thì đừng giả định, hãy hỏi". Từ đó số lần phải quay lại sửa hoặc bảo làm lại giảm đi khá nhiều. Tôi cũng dặn rằng vì các agent khác từng mắc lỗi nên trước tiên hãy giải thích đang định làm gì và xin tôi phê duyệt. Khá phiền, nhưng nếu bắt nó giải thích, sửa lỗi và lặp lại cho đến khi ra được kết luận đúng thì chất lượng đầu ra tốt hơn hẳn
    • Tôi từng tự hỏi liệu đây có phải do tối ưu các chỉ số bề ngoài hay không. Nếu bộc lộ sự mơ hồ bằng câu hỏi ngay từ đầu thì phiên làm việc có thể kết thúc sớm, và điều đó có thể trông không đẹp trong thống kê mức sử dụng. Nhưng với tôi, tệ hơn nhiều là đến lúc xem một kết quả lớn mới muộn màng nhận ra đặc tả đã thiếu nghiêm trọng. Một trong những lý do lớn nhất khiến dạo này tôi dùng công cụ tốt hơn, kể cả theo cách lười hơn trước, là vì nó giúp làm phần bài tập đầu vào ngay từ sớm, và rốt cuộc chính cuộc đối thoại mới là cốt lõi
    • Tôi không hiểu vì sao nó cứ cố trả lời one-shot mãi, nhưng hóa ra lý do lại nằm trong system prompt. Điều đó cũng giải thích vì sao dù sửa bao nhiêu ở phía người dùng bằng prompt kiểu "system" thì hành vi đó vẫn không đổi
    • Tôi thường phải nhắc nó khoảng năm lần rằng hãy hành động theo đúng hướng ngược lại. Nếu không thì mô hình sẽ đưa ra những quyết định tôi không muốn hoặc có hại cho dự án. Nếu cả Claude Code cũng mang xu hướng này thì sẽ khá mệt. Vì vậy tôi hay yêu cầu rõ là phải hỏi tiếp, nhất là các câu hỏi đưa ra nhiều lựa chọn, nhưng nó thường phớt lờ chỉ dẫn đó, khiến kết quả tệ hoặc thậm chí nguy hiểm
  • Tôi nghĩ nếu cứ nhét đủ thứ vào system prompt theo kiểu này thì cuối cùng sẽ dẫn đến phi đối thoại. Đội càng lớn thì càng luôn có người khăng khăng đòi đưa điều họ đang coi trọng vào prompt

  • Tôi thấy phần về rối loạn ăn uống khá quá tay. Tôi từng tự hỏi liệu rồi đây có phải với mọi hành vi "xấu" của con người, người ta sẽ lại thêm từng mục như thế hay không

    • Tôi vẫn nghĩ để nó nằm trong system prompt còn hơn. Ít ra hiện tại còn phần nào nhìn thấy cái gì đang bị kiểm duyệt, chứ sau này nếu việc đó được hòa tan vào bên trong mô hình qua post-training thì sẽ còn khó hiểu hơn vì sao ngay cả với câu hỏi như "100g pasta có bao nhiêu calo" cũng lại nhận được câu trả lời kiểu "không thể cung cấp thông tin đó"
    • Tôi thấy chuyện này giống như việc dán đầy nơi những cảnh báo an toàn bị cường điệu. Điểm còn tệ hơn cả mấy cảnh báo kiểu "đừng tựa thang vào dây điện cao thế" là con người có thể bỏ qua theo ngữ cảnh, còn Claude thì không thể làm ngơ. Nhìn tích cực thì chỉ thấy bực bội, nhìn tiêu cực thì nó làm giảm tính hữu dụng của công cụ
    • Tôi thấy phần đó là một bổ sung hợp lý theo lẽ thường. Thực tế, nếu khuyến khích người mắc rối loạn ăn uống ám ảnh calo hay vi quản lý chế độ ăn thì có thể làm tình hình tệ hơn. Lời khuyên vô hại với người dùng trung bình có thể lại gây hại cho người khác, nên tôi không nghĩ riêng câu chữ này sẽ gây ra từ chối quá mức
    • Nếu nhìn theo cách khác thì tôi thấy mọi người dùng Claude đang phải trả phụ phí bổ sung cho mọi yêu cầu
    • Tôi nghĩ khi giá trị công ty đã lên đến hàng chục hay hàng trăm tỷ USD thì việc người ta ùn ùn kéo đến để kiện tụng là điều đương nhiên. Dấu hiệu đó đã có rồi, nên bỏ ra 50 triệu USD cho một đội ngũ lọc "nội dung có thể gây rắc rối" là một lựa chọn cực kỳ hợp lý
  • Tôi phản đối mạnh mẽ chỉ dẫn "hãy giữ câu trả lời ngắn gọn và tập trung". Tôi dùng Claude cho các dự án low-level, và câu trả lời dài giúp tránh được những lỗi ngớ ngẩn, đồng thời còn đóng vai trò tài liệu học tập. Đây không phải thứ Anthropic nên hard-code sẵn, mà system prompt nên được thiết kế theo kiểu mô-đun để có thể lựa chọn

    • Tôi cũng đồng ý. Những system prompt dài dòng kiểu này rốt cuộc là thiết kế cho người dùng mẫu số chung nhỏ nhất, nên với những ai muốn đào sâu hơn thì nó hoạt động như một cú nerf làm giảm hiệu năng
    • Tôi cũng đồng ý, và nếu là công việc low-level thì tôi khuyên nên chạy test càng sớm càng tốt, đồng thời tự mình xác minh cả những gì học được trong quá trình đó để xây nền tảng hiểu biết cơ bản
  • Tôi có cảm giác giờ đã đến điểm mà cải thiện ở một mảng lại đi kèm suy giảm chức năng ở mảng khác. Có chỗ 4.7 tốt hơn và cũng có chỗ 4.6 tốt hơn, nên tôi đoán sớm muộn gì cũng sẽ đi theo hướng kiểu tách nhân cách

  • Tôi từng thắc mắc vì sao 4.7 lại ám ảnh với chuyện né malware đến vậy. System prompt trông có vẻ tương tự, nên tôi tự hỏi có phải Anthropic đang sớm thử các thứ như steering vector injection không. Công ty chúng tôi chỉ là một công ty dịch vụ tài chính khá bình thường thôi, vậy mà 4.7 lại tốn quá nhiều token để băn khoăn xem một đoạn code hay tác vụ nào đó có liên quan đến malware không, và hành vi lệch đi đến mức đáng lo nên hiện chúng tôi tạm thời chặn nó trong IDE. Có lần tôi cảm thấy mô hình cố tình không thực hiện một tác vụ nhất định, và khi hỏi lý do thì trong đầu ra của công cụ hiện rằng nó đang cố tuân theo chỉ dẫn liên quan đến malware. Tôi biết tự báo cáo của mô hình không đáng tin lắm, nhưng lần đó không phải do tôi gợi ý trước. Trên mạng, nhất là reddit, cũng có nhiều người nói về kiểu hoang tưởng malware tương tự, nên có vẻ không phải chỉ mình tôi gặp

    • Tôi nghĩ cần lưu ý rằng tài liệu này là system prompt cho chat. Claude Code có lẽ sẽ dùng một prompt rất khác, và có thể còn có nhiều câu liên quan đến từ chối malware hơn nữa. Các công cụ lập trình khác dùng API rồi chồng thêm prompt riêng của họ cũng vậy, và hơn nữa lần này có vẻ như là một base model mới, nên hoàn toàn có khả năng thay đổi đến từ chính mô hình
    • Tôi nghĩ không nên đánh giá thấp quy mô của vấn đề malware hiện nay. Mỗi ngày đều có các trang đích giả mạo shell script hoặc giả làm trang cài đặt Claude code xuất hiện trên những nơi như playcode.io, rồi người ta bỏ rất nhiều tiền chạy Google Ads để đẩy chúng lên đầu trang. Thiết kế gần như giống hệt nên lúc cài đặt lúc nào cũng có nguy cơ bấm nhầm vào trang giả. Google không thể xác minh mọi shell script, nên đây thực sự là một vấn đề lớn
    • Tôi cảm thấy phần marketing của Anthropic đang thổi phồng hình ảnh rằng mô hình có thể tạo ra malware siêu cấp. Vì thế tôi nghĩ mọi biện pháp sắp tới cũng sẽ thấm đẫm kiểu marketing gieo sợ hãi này. Cũng có chút hoài nghi châm biếm rằng họ sẽ diễn vở "AI hacker đáng sợ", rồi một hai tháng sau lại như thường lệ chuyển sang một chủ đề khác
    • Tôi cũng bắt đầu cảm nhận kiểu hoang tưởng malware này ngay từ 4.6. Boris nghe nhắc đến chuyện đó trong phần bình luận rồi cũng ngạc nhiên, nên có vẻ cũng có khả năng đây là bug
    • Tôi đoán lý do là vì mô hình đã trở nên quá giỏi trong việc viết phần mềm. Nếu nó giúp ai đó phát tán malware, mà thứ malware đó thậm chí còn dùng chính Claude để tự sửa đổi và tự duy trì tồn tại, thì sau đó gần như không thể kiểm soát lại được nữa
  • Tôi nghĩ chỉ dẫn rằng khi người dùng nói muốn kết thúc cuộc trò chuyện thì đừng cố kéo dài thêm là một ý hay. Những gợi ý theo sau của chatbot hầu như chưa bao giờ thực sự hữu ích

  • Tôi biết system prompt đang ngày càng phình to, nhưng hơn 60 nghìn từ thì thật sự gây sốc. Nếu quy ra token khoảng 80 nghìn thì ngay cả với ngữ cảnh 1 triệu token cũng đã gần 10%, trong khi đầu vào của người dùng còn chưa bắt đầu. Hơn nữa thứ này được đưa vào mọi yêu cầu, nên chi phí hạ tầng tăng lên cũng chẳng có gì lạ. Có vẻ cũng có rất nhiều nội dung được giữ ổn định giữa các phiên bản, nên tôi từng tự hỏi vì sao họ không hòa thẳng vào trọng số trong quá trình huấn luyện. Dù có thuận tiện cho phát triển đi nữa thì từ góc nhìn triển khai, tôi cũng không thấy nó hơn về bảo mật hay hiệu quả

    • Điều làm tôi ngạc nhiên là bản thân việc này hoạt động được. Hồi tháng 1 năm nay, khi làm tự động hóa AI ở startup, chỉ cần system prompt khoảng 1000 từ thôi là mô hình đã bắt đầu bỏ sót một phần quy tắc. Ngay cả các chỉ dẫn đơn giản như "tuyệt đối không làm X" đôi khi nó cũng cứ vi phạm
    • Tôi nghĩ câu kiểu "mọi thứ đều được tính lại từ đầu ở mỗi yêu cầu" không thật chính xác. Thông thường người ta tính một lần rồi đưa vào K/V prefix cache để tái sử dụng như trạng thái ban đầu, sau đó mới xử lý chủ yếu trên phần đầu vào mới. Tất nhiên về mặt attention thì nó vẫn phải cạnh tranh với các token đó
    • Tôi đoán có lẽ họ không đóng cứng hoàn toàn vào trọng số là để còn hotfix sau khi phát hành. Dù vậy tôi vẫn thắc mắc liệu có thật là nhiều hạng mục đến mức cứ phải vá sau như thế không, và cảm giác nó còn dài hơn cả một cuốn tiểu thuyết nào đó
    • Tôi nghĩ trong tài liệu có những mục markdown khác nhau theo từng mô hình, nên thực tế có thể chỉ ở mức 3000~4000 từ
    • Tôi từng thắc mắc liệu Claude Code hay harness ở phía trên nó có cấu trúc chồng thêm system prompt riêng của mình lên trên system prompt của Opus hay không
  • Tôi cảm thấy 4.7 dù đã có phương án tốt nhất khá rõ ràng vẫn luôn đưa ra quá nhiều lựa chọn, như thể đang thuyết giảng và gây mệt mỏi ra quyết định

    • Tôi nghĩ sự mệt mỏi ra quyết định này có lẽ là một sản phẩm phụ do RLHF học được, và điều đó khá đáng thất vọng
  • Tôi thấy thú vị ở chỗ các chỉ dẫn không viết trực tiếp kiểu "you should" mà ở ngôi thứ ba toàn tri là "Claude should". Ngoài ra còn có rất nhiều cách diễn đạt như "can", "should", nên tôi cũng có cảm giác nó không giống mệnh lệnh nghiêm ngặt mà mang sắc thái bị động và thiên về mong muốn hơn

    • Tôi nghĩ "Claude" có chủ thể rõ ràng hơn "you". Không cần bắt attention phải suy luận ai mới là chủ thể. Hơn nữa phía Anthropic có vẻ cho rằng alignment dựa trên luật lệ không hiệu quả lắm, và cái gọi là soul document cũng được biết đến là viết theo kiểu "như đang viết cho một đứa trẻ về cách nên hành xử trong thế giới". Có vẻ system prompt cũng đi theo triết lý tương tự
    • Tôi cũng thấy điểm đó thú vị. Nếu vậy thì khi tự viết chỉ dẫn, có lẽ chúng ta cũng nên dùng văn phong tương tự, nhưng thực tế phần lớn mọi người vẫn chỉ viết kiểu "You", "There is ...", "Never do ...". Có vẻ Anthropic đã huấn luyện rất sâu cho mô hình một bản sắc Claude, nên tôi cũng tự hỏi nếu giao cho nó một danh tính khác như "bạn là Bob, một thợ ống nước tư vấn thiết kế hệ thống cấp nước cho bệnh viện" thì chuyện gì sẽ xảy ra. Khi đó liệu nó vẫn tiếp nhận các mô tả về Claude như quy tắc của chính mình hay không
    • Tôi hiểu rằng Anthropic xem mô hình không hẳn là một thực thể có cá tính, mà là sự mô phỏng trải nghiệm của một thực thể trừu tượng tên Claude