- Một bộ plugin bao phủ toàn bộ phạm vi thực hành pháp lý từ hợp đồng thương mại nội bộ, quyền riêng tư, lao động, M&A, tố tụng, quy định, quản trị AI, sở hữu trí tuệ đến giáo dục luật; có thể triển khai theo ba cách: Claude Cowork, Claude Code và Managed Agents API
- Bao gồm hơn 70 Named Agent — như Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder — có thể chạy theo từng workflow chỉ với một lệnh gạch chéo
- Mỗi plugin học playbook, quy tắc escalation và house style của nhóm thông qua cold-start interview, rồi ghi vào hồ sơ thực hành
CLAUDE.md, giúp mọi kỹ năng tạo ra kết quả được tùy biến
- Cung cấp hơn 20 MCP connector: tích hợp với các công cụ phổ biến như Slack, Google Drive, Box và các hệ thống chuyên biệt cho pháp lý như Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis
- Plugin CoCounsel Legal của Thomson Reuters tích hợp với Westlaw Deep Research, có thể tạo báo cáo trích dẫn đầy đủ về án lệ, luật và quy định trên tối đa 3 khu vực tài phán của Mỹ
- Các trích dẫn thông qua research connector được gắn thẻ nguồn, còn các trích dẫn chỉ dựa trên kiến thức của mô hình sẽ có cờ
[verify], qua đó phân biệt rõ độ tin cậy của trích dẫn
- Các kỹ năng liên quan đến hợp đồng hoạt động trong chế độ tracked changes ở thanh bên Claude for Word, đồng thời giữ nguyên đánh số, điều khoản định nghĩa, tham chiếu chéo và định dạng. Các kỹ năng dành cho Excel xuất ra workbook
.xlsx nhiều sheet
- legal-builder-hub cung cấp lớp tin cậy cho kỹ năng cộng đồng — quét nội dung ẩn, phát hiện injection, allowlist, license gate, freshness gate, quét lại khi cập nhật và nhật ký kiểm toán cài đặt
- Bao gồm các plugin giáo dục như Socratic Drill dành cho sinh viên luật (chế độ học không cung cấp đáp án), chấm điểm IRAC, ôn thi bar exam, flashcard, dự đoán đề thi, cùng plugin legal-clinic (được thiết kế theo tiêu chuẩn ABA Formal Op. 512)
- Mọi đầu ra đều là bản nháp để luật sư xem xét, không đại diện cho lập trường pháp lý của Anthropic. Toàn bộ được cấu thành từ Markdown và JSON nên không cần bước build
- Giấy phép Apache-2.0
1 bình luận
Ý kiến trên Hacker News
Ở góc độ luật sư thì khá thú vị, nhưng có hai rào cản mà tôi không rõ Anthropic sẽ vượt qua thế nào
(1) Nếu người không phải luật sư dùng các skill/connector kiểu này để nhận tư vấn pháp lý, thì cuộc trò chuyện đó không được bảo vệ bởi đặc quyền bí mật luật sư-khách hàng. Chuyện này rõ ràng rồi sẽ gây ra vấn đề lớn cho ai đó
(2) Nếu luật sư nhập thông tin mật của khách hàng vào, rồi quên tắt “Help improve Claude” trong phần cài đặt, thì có thể họ đã phạm sơ suất nghề nghiệp của luật sư. Ở đây thông tin mật không chỉ là số an sinh xã hội hay số tài khoản, mà là “mọi thông tin liên quan đến việc đại diện cho khách hàng”
https://www.americanbar.org/content/dam/aba/administrative/p...
Thẩm phán Rakoff của Tòa án Quận Nam New York, khi xử lý một “vấn đề lần đầu xuất hiện trên toàn quốc”, đã phán quyết rằng các cuộc trao đổi bằng văn bản giữa bị cáo hình sự và nền tảng AI tạo sinh Claude không được bảo vệ bởi đặc quyền bí mật luật sư-khách hàng hay nguyên tắc sản phẩm công việc
Nội dung phức tạp hơn nhiều so với một câu này, nhưng ít nhất có thể an toàn mà cho rằng nếu bạn đưa biện hộ pháp lý hoặc các yếu tố của nó vào AI, thì nó có thể trở thành đối tượng của discovery
Tôi tự hỏi liệu có quy trình bảo mật vận hành nào khi dùng các công cụ bên thứ ba này cho câu hỏi pháp lý nhạy cảm, vừa bảo đảm về mặt đạo đức vừa bảo đảm các tương tác không rơi vào tài liệu discovery hay không
Tổng hợp hiện trạng khá tốt ở đây: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
Tuy vậy, chưa có gì trong số này là án lệ ràng buộc, nên lĩnh vực này sẽ tiếp tục thay đổi theo thời gian
Vậy nếu chuyện này làm sai thì ai chịu trách nhiệm? Anthropic Inc chắc sẽ không đứng ra gánh thay. Không có bảo hiểm lỗi và thiếu sót, không có trách nhiệm pháp lý, không có đặc quyền bí mật luật sư-khách hàng, cũng không có đoàn luật sư nào để xử lý kỷ luật
Nhìn thực tế thì nó giống phiên bản cao cấp hơn của bộ “will kit” xuất ra PDF. Chừng nào chưa có thay đổi căn bản, hệ thống pháp luật sẽ không nhìn mấy thứ này với thiện cảm
Sẽ tuyệt nếu trong một nền văn hóa hay kiện tụng, bạn không cần tốn hàng nghìn đô để tự bảo vệ mình, nhưng tôi sẽ không đặt cuộc sống và sự an ổn của mình vào đây
Tôi khá lạc quan một cách thận trọng về AI trong công việc pháp lý. Phần lớn công việc pháp lý là lao động lặp đi lặp lại, lục lọi đống tài liệu, nên chỉ riêng những việc LLM đã làm tốt cũng đã có nhiều chỗ áp dụng. Tuy nhiên, với công việc pháp lý thì tôi nghĩ cách tiếp cận kiểu agent như Claude mới là phù hợp
Cửa sổ ngữ cảnh của LLM quá nhỏ để chứa cả tài liệu của ngay cả một vụ việc nhỏ. Vì vậy phải làm việc trên cấu trúc tệp như lập trình viên vẫn làm, lưu trạng thái trong các tệp
.mdchẳng hạn. Cách này trong lập trình đã phát triển khá tốt, nhưng các công ty legal AI còn chưa thực sự chạm tới bề mặt. Thành thật mà nói, các sản phẩm giấu LLM sau một giao diện nào đó cũng không hay lắmĐáng tiếc là trong bài toán cá nhân tự bào chữa với chi phí thấp, AI có lẽ không giúp được nhiều. Phần lớn việc đó là làm việc với con người: tìm hiểu chuyện gì đã xảy ra, nói chuyện với những người liên quan, sắp xếp các câu chuyện mâu thuẫn, cố gắng dàn xếp nếu có thể, hoặc nếu không thì thuyết phục thẩm phán tại tòa. AI có vẻ hợp hơn với việc giúp các công ty lớn kiểm soát chi phí pháp lý trong các vụ kiện lớn, đồng thời ném thêm nhiều giấy tờ vào nhau
Nhật ký chat với AI không được bảo vệ như đặc quyền bí mật luật sư-khách hàng, và có thể bị dùng làm chứng cứ bất lợi cho bạn trước tòa. Nếu bạn nói chuyện với luật sư và luật sư đó dùng AI, thì cuộc trò chuyện đó sẽ thuộc diện đặc quyền
Có vẻ họ đã loại bỏ Lexis, vốn có thể là một trong những công cụ quan trọng nhất với luật sư: https://github.com/anthropics/claude-for-legal/pull/5
Vì vậy tôi thấy khá nhiều định giá của các startup AI ở tầng ứng dụng hiện nay hơi bấp bênh. Khi các công ty AI lớn như Anthropic bắt đầu mở rộng sang sản phẩm theo chiều dọc, phép tính sẽ khác đi
Tuy vậy, tôi vẫn tự hỏi họ sẽ theo đuổi nghiêm túc đến mức nào. Có lẽ một lợi thế mà vài startup còn giữ được là nỗi sợ rằng các gói sản phẩm của OpenAI/Anthropic rồi cũng có thể bị đưa ra nghĩa địa chỉ sau 1-2 năm như sản phẩm của Google
Cụm từ “các workflow pháp lý chúng tôi thấy nhiều nhất” hơi gây khó chịu. Điều đó có nghĩa là dựa trên phiên làm việc của khách hàng sao? Họ có quyền dùng dữ liệu khách hàng để xây dựng cơ sở tri thức về mọi nghề nghiệp, mọi chủ đề, mọi workflow trên toàn thế giới à?
Họ tin rằng mình có quyền đó, và cũng nói điều đó khá công khai
Nó còn có tên nữa. Là Clio, và theo trang giới thiệu thì đó là “hệ thống dành cho các insight bảo vệ quyền riêng tư về việc sử dụng AI trong thực tế”
Trang liên quan ở đây: https://www.anthropic.com/research/clio
Đến một lúc nào đó, luật sư, nhân viên pháp lý và thẩm phán có lẽ sẽ dùng những thứ này. Khi đó, luật sư có thể trở thành kiểu chuyên gia SEO/copywriter giỏi đánh lừa LLM phía bên kia hơn
Từng tự đại diện cho mình ở tòa án trước đây nên tôi thấy thứ này rõ ràng là thú vị
Tuy nhiên, ở một số khu vực tài phán như Anh, bạn không thể cứ thế cung cấp tư vấn pháp lý cho người khác nếu không có chấp thuận của SRA hoặc chịu quản lý của FCA. Tức là theo luật Anh, thứ này thực chất có thể biến Anthropic thành một công ty quản lý khiếu nại
Theo article 89I của Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, việc tư vấn cho người khiếu nại hoặc người có khả năng khiếu nại trong các khiếu nại liên quan đến dịch vụ tài chính hay sản phẩm tài chính, điều tra khiếu nại, hoặc đại diện cho người khiếu nại, đều là hoạt động được định nghĩa là có quản lý
https://www.fca.org.uk/freedom-information/dual-regulation-c...
Đến giờ chắc các công ty AI cũng phải học được rằng lĩnh vực pháp lý không phải chỗ có thể tùy tiện xông vào. Chỉ cần nhìn hồ sơ trước đây là đủ. Vậy mà những người lạc quan AI kiểu này dường như lại không có khả năng học hỏi
Thay vào đó, họ sẽ cung cấp dịch vụ AI cho các hãng luật, để các hãng luật dùng nó trong quá trình cung cấp dịch vụ pháp lý của mình. Dù tốt hay xấu, chuyện đó đã diễn ra rồi, và gần như mọi hãng luật doanh nghiệp lớn đều đang dùng AI theo cách nào đó. Khách hàng cũng đòi hỏi điều này. Các vấn đề phát sinh do dùng AI trong pháp lý sẽ còn tiếp tục xuất hiện, nhưng trách nhiệm sẽ đổ về phía các luật sư
Tên tổ chức GitHub là “Anthropics” có vẻ khá dễ gây hiểu lầm