1 điểm bởi GN⁺ 3 giờ trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Một bộ plugin bao phủ toàn bộ phạm vi thực hành pháp lý từ hợp đồng thương mại nội bộ, quyền riêng tư, lao động, M&A, tố tụng, quy định, quản trị AI, sở hữu trí tuệ đến giáo dục luật; có thể triển khai theo ba cách: Claude Cowork, Claude Code và Managed Agents API
  • Bao gồm hơn 70 Named Agent — như Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder — có thể chạy theo từng workflow chỉ với một lệnh gạch chéo
  • Mỗi plugin học playbook, quy tắc escalation và house style của nhóm thông qua cold-start interview, rồi ghi vào hồ sơ thực hành CLAUDE.md, giúp mọi kỹ năng tạo ra kết quả được tùy biến
  • Cung cấp hơn 20 MCP connector: tích hợp với các công cụ phổ biến như Slack, Google Drive, Box và các hệ thống chuyên biệt cho pháp lý như Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis
  • Plugin CoCounsel Legal của Thomson Reuters tích hợp với Westlaw Deep Research, có thể tạo báo cáo trích dẫn đầy đủ về án lệ, luật và quy định trên tối đa 3 khu vực tài phán của Mỹ
  • Các trích dẫn thông qua research connector được gắn thẻ nguồn, còn các trích dẫn chỉ dựa trên kiến thức của mô hình sẽ có cờ [verify], qua đó phân biệt rõ độ tin cậy của trích dẫn
  • Các kỹ năng liên quan đến hợp đồng hoạt động trong chế độ tracked changes ở thanh bên Claude for Word, đồng thời giữ nguyên đánh số, điều khoản định nghĩa, tham chiếu chéo và định dạng. Các kỹ năng dành cho Excel xuất ra workbook .xlsx nhiều sheet
  • legal-builder-hub cung cấp lớp tin cậy cho kỹ năng cộng đồng — quét nội dung ẩn, phát hiện injection, allowlist, license gate, freshness gate, quét lại khi cập nhật và nhật ký kiểm toán cài đặt
  • Bao gồm các plugin giáo dục như Socratic Drill dành cho sinh viên luật (chế độ học không cung cấp đáp án), chấm điểm IRAC, ôn thi bar exam, flashcard, dự đoán đề thi, cùng plugin legal-clinic (được thiết kế theo tiêu chuẩn ABA Formal Op. 512)
  • Mọi đầu ra đều là bản nháp để luật sư xem xét, không đại diện cho lập trường pháp lý của Anthropic. Toàn bộ được cấu thành từ Markdown và JSON nên không cần bước build
  • Giấy phép Apache-2.0

1 bình luận

 
Ý kiến trên Hacker News
  • Ở góc độ luật sư thì khá thú vị, nhưng có hai rào cản mà tôi không rõ Anthropic sẽ vượt qua thế nào
    (1) Nếu người không phải luật sư dùng các skill/connector kiểu này để nhận tư vấn pháp lý, thì cuộc trò chuyện đó không được bảo vệ bởi đặc quyền bí mật luật sư-khách hàng. Chuyện này rõ ràng rồi sẽ gây ra vấn đề lớn cho ai đó
    (2) Nếu luật sư nhập thông tin mật của khách hàng vào, rồi quên tắt “Help improve Claude” trong phần cài đặt, thì có thể họ đã phạm sơ suất nghề nghiệp của luật sư. Ở đây thông tin mật không chỉ là số an sinh xã hội hay số tài khoản, mà là “mọi thông tin liên quan đến việc đại diện cho khách hàng”
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Có cơ sở cho ý 1 ở đây: https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      Thẩm phán Rakoff của Tòa án Quận Nam New York, khi xử lý một “vấn đề lần đầu xuất hiện trên toàn quốc”, đã phán quyết rằng các cuộc trao đổi bằng văn bản giữa bị cáo hình sự và nền tảng AI tạo sinh Claude không được bảo vệ bởi đặc quyền bí mật luật sư-khách hàng hay nguyên tắc sản phẩm công việc
      Nội dung phức tạp hơn nhiều so với một câu này, nhưng ít nhất có thể an toàn mà cho rằng nếu bạn đưa biện hộ pháp lý hoặc các yếu tố của nó vào AI, thì nó có thể trở thành đối tượng của discovery
    • Ý 1 thật sự nghe rất kỳ. Nếu tôi trả tiền cho luật sư, và luật sư đưa cùng câu hỏi đó vào công cụ như thế này, thì nó được đặc quyền bí mật luật sư-khách hàng bảo vệ; nhưng nếu chính tôi nhập đúng câu hỏi đó để tự chuẩn bị bào chữa, thì lại có thể bị subpoena hoặc discovery
      Tôi tự hỏi liệu có quy trình bảo mật vận hành nào khi dùng các công cụ bên thứ ba này cho câu hỏi pháp lý nhạy cảm, vừa bảo đảm về mặt đạo đức vừa bảo đảm các tương tác không rơi vào tài liệu discovery hay không
    • Ý 1 hơi phức tạp. Trao đổi với AI trong một số trường hợp có thể được bảo vệ theo nguyên tắc sản phẩm công việc, nhưng chỉ giới hạn khi người đó là đương sự pro se tự mình tiến hành tố tụng, và bị giới hạn rất chặt vào phạm vi tương đương với ấn tượng tinh thần và ý kiến sản phẩm công việc của luật sư. Trong trường hợp đó, sự bảo vệ này được mở rộng cho đương sự pro se. Xem Warner v. Gilbarco, Inc.
      Tổng hợp hiện trạng khá tốt ở đây: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      Tuy vậy, chưa có gì trong số này là án lệ ràng buộc, nên lĩnh vực này sẽ tiếp tục thay đổi theo thời gian
    • Ý 2 thì về cơ bản sẽ là dùng thông qua tài khoản tổ chức/doanh nghiệp đã tắt lưu giữ dữ liệu
    • Không thể giải quyết ý 1 chỉ bằng một dòng trong luật sao? Kiểu như “các truy vấn pháp lý gửi tới LLM cũng được hưởng đặc quyền bí mật luật sư-khách hàng như nhau”
  • Vậy nếu chuyện này làm sai thì ai chịu trách nhiệm? Anthropic Inc chắc sẽ không đứng ra gánh thay. Không có bảo hiểm lỗi và thiếu sót, không có trách nhiệm pháp lý, không có đặc quyền bí mật luật sư-khách hàng, cũng không có đoàn luật sư nào để xử lý kỷ luật
    Nhìn thực tế thì nó giống phiên bản cao cấp hơn của bộ “will kit” xuất ra PDF. Chừng nào chưa có thay đổi căn bản, hệ thống pháp luật sẽ không nhìn mấy thứ này với thiện cảm
    Sẽ tuyệt nếu trong một nền văn hóa hay kiện tụng, bạn không cần tốn hàng nghìn đô để tự bảo vệ mình, nhưng tôi sẽ không đặt cuộc sống và sự an ổn của mình vào đây

    • Trong repo có điều khoản miễn trừ trách nhiệm rất mạnh rằng họ hoàn toàn không chịu trách nhiệm gì. Trông giống hạng mục use case phục vụ marketing hơn là thứ thật sự hữu ích
    • Người dùng phải chịu trách nhiệm. Việc người dùng lấy thông tin từ LLM, máy móc hay bài đăng web không làm thay đổi điều đó; người nộp tài liệu phải là người chịu trách nhiệm mới đúng
    • Trách nhiệm thuộc về các luật sư. Việc dùng AI không phải quyết định nhị nguyên. Luật sư có thể dùng AI để làm việc hiệu quả hơn, còn khách hàng có thể dùng AI để hiểu rõ hơn tình hình hiện tại hay lời giải thích của luật sư, hoặc để học xem mình nên hỏi gì. Hoặc cũng có thể dùng trong các tình huống rủi ro thấp mà chẳng ai trả nổi phí luật sư
      Tôi khá lạc quan một cách thận trọng về AI trong công việc pháp lý. Phần lớn công việc pháp lý là lao động lặp đi lặp lại, lục lọi đống tài liệu, nên chỉ riêng những việc LLM đã làm tốt cũng đã có nhiều chỗ áp dụng. Tuy nhiên, với công việc pháp lý thì tôi nghĩ cách tiếp cận kiểu agent như Claude mới là phù hợp
      Cửa sổ ngữ cảnh của LLM quá nhỏ để chứa cả tài liệu của ngay cả một vụ việc nhỏ. Vì vậy phải làm việc trên cấu trúc tệp như lập trình viên vẫn làm, lưu trạng thái trong các tệp .md chẳng hạn. Cách này trong lập trình đã phát triển khá tốt, nhưng các công ty legal AI còn chưa thực sự chạm tới bề mặt. Thành thật mà nói, các sản phẩm giấu LLM sau một giao diện nào đó cũng không hay lắm
      Đáng tiếc là trong bài toán cá nhân tự bào chữa với chi phí thấp, AI có lẽ không giúp được nhiều. Phần lớn việc đó là làm việc với con người: tìm hiểu chuyện gì đã xảy ra, nói chuyện với những người liên quan, sắp xếp các câu chuyện mâu thuẫn, cố gắng dàn xếp nếu có thể, hoặc nếu không thì thuyết phục thẩm phán tại tòa. AI có vẻ hợp hơn với việc giúp các công ty lớn kiểm soát chi phí pháp lý trong các vụ kiện lớn, đồng thời ném thêm nhiều giấy tờ vào nhau
    • Hệ thống pháp luật cũng đâu có nhìn việc bãi bỏ lệnh cấm jaywalking với thiện cảm ngay từ đầu. Ở Mỹ chuyện đó mất khoảng 20 năm
    • Theo nguyên văn, luật sư dùng plugin, tức chính luật sư đó chứ không phải plugin hay Anthropic, phải chịu trách nhiệm cho lập trường pháp lý được nêu ra trong sản phẩm công việc của mình
  • Nhật ký chat với AI không được bảo vệ như đặc quyền bí mật luật sư-khách hàng, và có thể bị dùng làm chứng cứ bất lợi cho bạn trước tòa. Nếu bạn nói chuyện với luật sư và luật sư đó dùng AI, thì cuộc trò chuyện đó sẽ thuộc diện đặc quyền

    • Không đúng. Nếu bạn nói chuyện với luật sư và luật sư đó thực hiện các biện pháp phòng ngừa hợp lý để duy trì tính toàn vẹn của quan hệ bí mật luật sư-khách hàng, thì đặc quyền vẫn được giữ. Nếu không thì không
  • Có vẻ họ đã loại bỏ Lexis, vốn có thể là một trong những công cụ quan trọng nhất với luật sư: https://github.com/anthropics/claude-for-legal/pull/5

    • “Theo yêu cầu của đối tác” — không biết có phải Thomson Reuters (Westlaw) cảm thấy bị đe dọa đến mức phải phàn nàn như vậy không. Ngược lại, điều đó lại khiến tôi tò mò các skill này sẽ hoạt động tốt đến đâu nếu dùng cùng Lexis
    • Không thể cứ dùng phiên bản codebase trước thay đổi đó sao?
  • Vì vậy tôi thấy khá nhiều định giá của các startup AI ở tầng ứng dụng hiện nay hơi bấp bênh. Khi các công ty AI lớn như Anthropic bắt đầu mở rộng sang sản phẩm theo chiều dọc, phép tính sẽ khác đi
    Tuy vậy, tôi vẫn tự hỏi họ sẽ theo đuổi nghiêm túc đến mức nào. Có lẽ một lợi thế mà vài startup còn giữ được là nỗi sợ rằng các gói sản phẩm của OpenAI/Anthropic rồi cũng có thể bị đưa ra nghĩa địa chỉ sau 1-2 năm như sản phẩm của Google

    • Cũng giống như hỏi sẽ ra sao nếu AWS bắt đầu làm chuyện đó. Họ đã có sẵn toàn bộ hạ tầng rồi. LLM chỉ là một bánh răng; ở tầng ứng dụng vẫn còn rất nhiều việc mà họ hoàn toàn chưa làm
    • Mọi định giá trong lĩnh vực AI đều bấp bênh. Thực ra chẳng nơi nào có kế hoạch kinh doanh thật sự vững, chỉ có không khí, vậy mà tiền vẫn cứ tiếp tục đổ vào
  • Cụm từ “các workflow pháp lý chúng tôi thấy nhiều nhất” hơi gây khó chịu. Điều đó có nghĩa là dựa trên phiên làm việc của khách hàng sao? Họ có quyền dùng dữ liệu khách hàng để xây dựng cơ sở tri thức về mọi nghề nghiệp, mọi chủ đề, mọi workflow trên toàn thế giới à?

    • Tôi nghĩ là có. Họ đang dùng dữ liệu công ty của bạn để huấn luyện AI nhằm sau này có thể thay thế chính doanh nghiệp của bạn. Nếu khó tin, cứ thử nói xem có thứ gì họ chưa huấn luyện bằng nó không
    • Đúng là dựa trên phiên làm việc của khách hàng
      Họ tin rằng mình có quyền đó, và cũng nói điều đó khá công khai
      Nó còn có tên nữa. Là Clio, và theo trang giới thiệu thì đó là “hệ thống dành cho các insight bảo vệ quyền riêng tư về việc sử dụng AI trong thực tế”
      Trang liên quan ở đây: https://www.anthropic.com/research/clio
    • Còn phải xem theo luật nước nào nữa. Bạn cũng biết luật mỗi nước khác nhau mà?
    • “Có quyền về mặt pháp lý và đạo đức hay không” khác với “có hành xử như thể mình có quyền hay không”. Đây là câu hỏi lớn
  • Đến một lúc nào đó, luật sư, nhân viên pháp lý và thẩm phán có lẽ sẽ dùng những thứ này. Khi đó, luật sư có thể trở thành kiểu chuyên gia SEO/copywriter giỏi đánh lừa LLM phía bên kia hơn

    • Chúng ta đã qua điểm đó từ lâu rồi. Chỉ cần nhìn số vụ luật sư trên khắp thế giới nộp tài liệu lên tòa có chứa trích dẫn án lệ bịa đặt do hallucination là đủ
    • Luật thì dù sao cũng được viết ra ở đâu đó. Con người có thể nhìn vào luật thật để đánh giá xem AI có đang nói nhảm hay không
  • Từng tự đại diện cho mình ở tòa án trước đây nên tôi thấy thứ này rõ ràng là thú vị
    Tuy nhiên, ở một số khu vực tài phán như Anh, bạn không thể cứ thế cung cấp tư vấn pháp lý cho người khác nếu không có chấp thuận của SRA hoặc chịu quản lý của FCA. Tức là theo luật Anh, thứ này thực chất có thể biến Anthropic thành một công ty quản lý khiếu nại
    Theo article 89I của Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, việc tư vấn cho người khiếu nại hoặc người có khả năng khiếu nại trong các khiếu nại liên quan đến dịch vụ tài chính hay sản phẩm tài chính, điều tra khiếu nại, hoặc đại diện cho người khiếu nại, đều là hoạt động được định nghĩa là có quản lý
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • Đến giờ chắc các công ty AI cũng phải học được rằng lĩnh vực pháp lý không phải chỗ có thể tùy tiện xông vào. Chỉ cần nhìn hồ sơ trước đây là đủ. Vậy mà những người lạc quan AI kiểu này dường như lại không có khả năng học hỏi

    • Tôi nghĩ họ sẽ không ngừng đùa với lĩnh vực này đâu. Luật sư đắt đỏ, nên lợi ích tiềm năng khi thay thế bằng AI là rất lớn. Nhưng có những người nghĩ rằng các công ty AI sẽ cạnh tranh trực tiếp với luật sư và tự cung cấp tư vấn pháp lý; tôi nghĩ họ sẽ không bao giờ làm thế vì đó là bãi mìn trách nhiệm pháp lý
      Thay vào đó, họ sẽ cung cấp dịch vụ AI cho các hãng luật, để các hãng luật dùng nó trong quá trình cung cấp dịch vụ pháp lý của mình. Dù tốt hay xấu, chuyện đó đã diễn ra rồi, và gần như mọi hãng luật doanh nghiệp lớn đều đang dùng AI theo cách nào đó. Khách hàng cũng đòi hỏi điều này. Các vấn đề phát sinh do dùng AI trong pháp lý sẽ còn tiếp tục xuất hiện, nhưng trách nhiệm sẽ đổ về phía các luật sư
    • Nếu không bị ép phải gánh trách nhiệm, thì chỉ riêng hiệu ứng PR ở đây cũng đã đủ đáng giá. Không phải tình huống hay ho gì
  • Tên tổ chức GitHub là “Anthropics” có vẻ khá dễ gây hiểu lầm