Le Chat: đầu nối MCP tùy chỉnh và bộ nhớ
(mistral.ai)- Le Chat ra mắt thư mục đầu nối doanh nghiệp (beta) với hơn 20 mục
- Cung cấp khả năng dễ dàng liên kết quy trình làm việc và công cụ bằng đầu nối MCP tùy chỉnh
- Tính năng Memories mới mang đến phản hồi được cá nhân hóa dựa trên lịch sử trò chuyện và sở thích người dùng
- Cung cấp kiểm soát quản trị cùng nhiều tùy chọn triển khai như on-premise, đám mây riêng/công cộng
- Mọi tính năng đều được mở cho cả người dùng gói miễn phí
Giới thiệu các cập nhật chính của Le Chat
Để nâng cao tính hữu dụng của trợ lý AI, Le Chat đã mới bổ sung thư mục đầu nối cấp doanh nghiệp (beta) và tính năng Memories (bộ nhớ). Hai tính năng này có ý nghĩa ở chỗ đồng thời cho phép tự động hóa quy trình làm việc, tăng năng suất và tạo phản hồi cá nhân hóa.
Thư mục đầu nối doanh nghiệp (Beta)
- Cung cấp hơn 20 đầu nối bảo mật
- Bao gồm dữ liệu, năng suất, phát triển, tự động hóa, thương mại và tích hợp tùy chỉnh
- Tích hợp với nhiều công cụ chủ chốt như Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe, Zapier
- Có thể tự thêm đầu nối MCP tùy chỉnh để mở rộng rộng rãi tới cả các hệ thống và quy trình làm việc đặc thù của doanh nghiệp
- Hỗ trợ nhiều môi trường triển khai như di động, trình duyệt, on-premise, đám mây riêng/công cộng
- Thông qua Le Chat, có thể đồng thời thực hiện các quy trình làm việc phức hợp như tìm kiếm dữ liệu, tóm tắt và thực hiện hành động
Ví dụ hỗ trợ theo từng danh mục chính
- Dữ liệu: tìm kiếm và phân tích tập dữ liệu với Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki
- Năng suất: cộng tác tài liệu/dự án với Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence)
- Phát triển: quản lý issue và PR trên GitHub, tạo tác vụ trên Linear, giám sát Sentry, tích hợp Cloudflare Development Platform
- Tự động hóa: tự động hóa quy trình làm việc và quản lý chiến dịch thông qua Zapier, Brevo
- Thương mại: truy cập và quản lý dữ liệu thương mại/thanh toán của PayPal, Plaid, Square, Stripe
- Tùy chỉnh: trực tiếp thêm đầu nối MCP theo từng công ty để kết nối hệ thống riêng, thực hiện tóm tắt, truy vấn v.v.
- Triển khai: tự do lựa chọn môi trường on-premise/đám mây riêng/đám mây công cộng
Ví dụ sử dụng đầu nối
- Tóm tắt đánh giá khách hàng trong Databricks rồi tạo issue trong Asana
- Rà soát GitHub PR rồi tạo issue Jira, ghi lại thay đổi trong Notion
- So sánh nghĩa vụ tài chính giữa các tài liệu hợp đồng trong Box rồi tải lại bản tóm tắt
- Tóm tắt các issue đang hoạt động trong Jira rồi soạn nháp trang tổng quan sprint trong Confluence
- Kiểm tra insight từ thông tin thanh toán của Stripe rồi ghi nhận trường hợp bất thường vào Linear
Kết nối và kiểm soát linh hoạt
- Cũng hỗ trợ kết nối trực tiếp với máy chủ MCP từ xa không có trong thư mục đầu nối
- Quản trị viên có thể kiểm soát chi tiết phạm vi truy cập đầu nối và phương thức xác thực của người dùng
- Môi trường triển khai cũng được cung cấp với nhiều tùy chọn như tự lưu trữ, đám mây riêng hoặc công cộng, hay dịch vụ được quản lý hoàn toàn để phù hợp với đặc thù tổ chức
Memories (bộ nhớ): khai thác liên tục ngữ cảnh hội thoại
Memories của Le Chat lưu giữ lịch sử trò chuyện, quyết định và các điểm tham chiếu trước đó để ở mỗi luồng hội thoại có thể mang lại trải nghiệm cá nhân hóa tốt hơn, đề xuất phù hợp hơn và phản hồi đáng tin cậy hơn dựa trên thông tin trong quá khứ.
- Tập trung vào độ chính xác và độ tin cậy nên chỉ lưu những nội dung quan trọng, tự động loại trừ thông tin nhạy cảm/tạm thời
- Người dùng có thể trực tiếp thêm, sửa, cập nhật, xóa nội dung bộ nhớ, đồng thời có thiết lập quyền riêng tư minh bạch
- Cũng hỗ trợ công cụ nhập để nhanh chóng nhập dữ liệu bộ nhớ từ ChatGPT
Hướng dẫn bắt đầu và sự kiện
- Tính năng đầu nối và bộ nhớ được mở miễn phí cho mọi người dùng Le Chat
- Có thể sử dụng ngay trên trình duyệt web và ứng dụng iOS/Android (Le Chat by Mistral AI)
- Cũng hỗ trợ triển khai doanh nghiệp quy mô lớn hơn và tư vấn tùy chỉnh
Thông tin webinar và hackathon
- Ngày 9 tháng 9: tổ chức webinar giới thiệu tính năng Le Chat MCP, chia sẻ cách sử dụng mới nhất và hỏi đáp trực tiếp
- Ngày 13–14 tháng 9: tại Paris sẽ diễn ra hackathon Mistral AI MCP kéo dài 2 ngày, mang đến cơ hội hiện thực hóa ý tưởng cùng các kỹ sư AI và nhận cố vấn chuyên môn
Tuyển dụng
Le Chat đang tuyển dụng các nhà phát triển muốn cùng xây dựng sản phẩm AI đẳng cấp thế giới
1 bình luận
Ý kiến trên Hacker News
Giá giống nhau nhưng đầu ra tốt hơn hẳn, độ tin cậy cao hơn và nhanh hơn khoảng 10 lần
Điểm trừ là khi thất bại thì nó có xu hướng hỏng hoàn toàn
gpt-5-mini bỏ qua khoảng 70% định dạng trong prompt, còn mistral-medium tuân thủ đúng 99%, nhưng khoảng 1% trường hợp lại chèn các ký tự ngẫu nhiên không rõ lý do, thường là dấu backtick, rồi tự gây ra lỗi định dạng
Dù vậy tôi vẫn rất hài lòng với Mistral
json ...là mẫu quá phổ biến, nên tôi kiểm tra và sửa những chỗ đó ở tầng ứng dụng10 năm trước khi tạo dữ liệu tổng hợp bằng LSTM tôi cũng từng làm các bước sanity check tương tự cho định dạng
Để tiết kiệm chi phí và thử các sản phẩm ngoài OpenAI, tôi đang dùng Mistral Small cho phần tóm tắt và Large cho phân tích cuối cùng, và cực kỳ hài lòng
Ngoài ra còn có free tier rất hào phóng, cực kỳ hữu ích khi làm PoC và demo
Nếu có ví dụ nó hay thất bại, bạn có thể cho xem không?
Tôi thắc mắc vì sao ràng buộc ở mức token lại có thể lệch khỏi định dạng mong muốn đến vậy
Tôi hỏi rất nhiều câu one-shot ngẫu nhiên trên lmarena, và khi tôi bỏ phiếu mù thì mistral-medium luôn là lựa chọn tệ hơn
So với qwen, llama, gemini, gpt v.v., nó có tỷ lệ đưa ra thông tin sai sự thật cao vượt trội
Nếu bạn có thể chia sẻ prompt mẫu thì tốt quá, tôi muốn biết nó phản hồi tốt với kiểu gì
Tôi đã làm một MCP connector có thể kết nối với mọi giao thức truyền tệp có thể nghĩ tới, từ S3 đến FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive, Sharepoint
Tôi đã thêm nhiều lớp như ủy quyền xác thực, ép buộc quyền hạn, hỗ trợ RBAC, giới hạn quyền truy cập của LLM bằng Chroot, và cả công cụ để trực quan hóa/chỉnh sửa nhiều định dạng tệp
Nó là mã nguồn mở, và sẽ rất tuyệt nếu được thêm vào thư mục
https://github.com/mickael-kerjean/filestash
So với Anthropic hay OAI thì mức định giá này thấp hơn khá nhiều, nên với tôi nó có cảm giác rất rẻ
Để hiểu rõ hơn mức định giá đó thì sẽ rất thú vị nếu so sánh doanh thu và tốc độ tăng trưởng
Và có vẻ Mistral gần như là người chơi quan trọng duy nhất còn lại trong nhóm công ty Gen AI mới nổi gắn với châu Âu
Aleph Alpha giờ gần như không còn được nhắc tới, và do Schwarz Group dẫn dắt nên thực tế gần như chỉ còn ở mức thương vụ acqui-hire
Gần đây họ đã công bố một agent framework riêng
https://www.heise.de/en/news/DeepL-presents-its-own-AI-agent-for-companies-10630391.html Nhìn chung tôi nghĩ AI ở châu Âu vẫn có triển vọng
Lumo chạy trên các mô hình của Mistral
Tôi dùng nó thường xuyên và phần lớn kết quả là đủ tốt để hài lòng
Tuy vậy để lập trình thì tôi vẫn dùng gemini-cli và codex của OpenAI khoảng 2-3 lần mỗi tuần
Tôi sống ở Mỹ, nhưng nếu là người châu Âu thì tôi sẽ ủng hộ Mistral hết mình vì ngành AI của khu vực và quốc gia mình
https://news.ycombinator.com/item?id=44665398
Endpoint API công khai của Mistral đi qua CloudFlare, và các mô hình của Trung Quốc mà tôi kiểm tra cũng đều như vậy
Xin dành lời khen cho đội thiết kế Mistral vì phong cách pixel art hiện đại với màu cam
Có vẻ dịch vụ MCP chính thức chắc chắn sẽ tốt hơn, vì cũng không cần cấp quyền truy cập tài nguyên cho Mistral
https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
Tôi nghi ngờ liệu Mistral có thật sự sống sót được không
Có lẽ ý là thế này
Quản trị viên có thể kiểm soát chi tiết người dùng nào được dùng connector nào, đồng thời quyền truy cập cũng được quản lý chặt bằng xác thực thay mặt người dùng (on-behalf authentication)
Không rõ có bao gồm chuyển đổi tỷ giá, phí, tài liệu API v.v. hay không