2 điểm bởi GN⁺ 2025-09-05 | 1 bình luận | Chia sẻ qua WhatsApp
  • Le Chat ra mắt thư mục đầu nối doanh nghiệp (beta) với hơn 20 mục
  • Cung cấp khả năng dễ dàng liên kết quy trình làm việc và công cụ bằng đầu nối MCP tùy chỉnh
  • Tính năng Memories mới mang đến phản hồi được cá nhân hóa dựa trên lịch sử trò chuyện và sở thích người dùng
  • Cung cấp kiểm soát quản trị cùng nhiều tùy chọn triển khai như on-premise, đám mây riêng/công cộng
  • Mọi tính năng đều được mở cho cả người dùng gói miễn phí

Giới thiệu các cập nhật chính của Le Chat

Để nâng cao tính hữu dụng của trợ lý AI, Le Chat đã mới bổ sung thư mục đầu nối cấp doanh nghiệp (beta) và tính năng Memories (bộ nhớ). Hai tính năng này có ý nghĩa ở chỗ đồng thời cho phép tự động hóa quy trình làm việc, tăng năng suất và tạo phản hồi cá nhân hóa.

Thư mục đầu nối doanh nghiệp (Beta)

  • Cung cấp hơn 20 đầu nối bảo mật
    • Bao gồm dữ liệu, năng suất, phát triển, tự động hóa, thương mại và tích hợp tùy chỉnh
    • Tích hợp với nhiều công cụ chủ chốt như Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe, Zapier
  • Có thể tự thêm đầu nối MCP tùy chỉnh để mở rộng rộng rãi tới cả các hệ thống và quy trình làm việc đặc thù của doanh nghiệp
  • Hỗ trợ nhiều môi trường triển khai như di động, trình duyệt, on-premise, đám mây riêng/công cộng
  • Thông qua Le Chat, có thể đồng thời thực hiện các quy trình làm việc phức hợp như tìm kiếm dữ liệu, tóm tắt và thực hiện hành động

Ví dụ hỗ trợ theo từng danh mục chính

  • Dữ liệu: tìm kiếm và phân tích tập dữ liệu với Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki
  • Năng suất: cộng tác tài liệu/dự án với Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence)
  • Phát triển: quản lý issue và PR trên GitHub, tạo tác vụ trên Linear, giám sát Sentry, tích hợp Cloudflare Development Platform
  • Tự động hóa: tự động hóa quy trình làm việc và quản lý chiến dịch thông qua Zapier, Brevo
  • Thương mại: truy cập và quản lý dữ liệu thương mại/thanh toán của PayPal, Plaid, Square, Stripe
  • Tùy chỉnh: trực tiếp thêm đầu nối MCP theo từng công ty để kết nối hệ thống riêng, thực hiện tóm tắt, truy vấn v.v.
  • Triển khai: tự do lựa chọn môi trường on-premise/đám mây riêng/đám mây công cộng

Ví dụ sử dụng đầu nối

  • Tóm tắt đánh giá khách hàng trong Databricks rồi tạo issue trong Asana
  • Rà soát GitHub PR rồi tạo issue Jira, ghi lại thay đổi trong Notion
  • So sánh nghĩa vụ tài chính giữa các tài liệu hợp đồng trong Box rồi tải lại bản tóm tắt
  • Tóm tắt các issue đang hoạt động trong Jira rồi soạn nháp trang tổng quan sprint trong Confluence
  • Kiểm tra insight từ thông tin thanh toán của Stripe rồi ghi nhận trường hợp bất thường vào Linear

Kết nối và kiểm soát linh hoạt

  • Cũng hỗ trợ kết nối trực tiếp với máy chủ MCP từ xa không có trong thư mục đầu nối
  • Quản trị viên có thể kiểm soát chi tiết phạm vi truy cập đầu nối và phương thức xác thực của người dùng
  • Môi trường triển khai cũng được cung cấp với nhiều tùy chọn như tự lưu trữ, đám mây riêng hoặc công cộng, hay dịch vụ được quản lý hoàn toàn để phù hợp với đặc thù tổ chức

Memories (bộ nhớ): khai thác liên tục ngữ cảnh hội thoại

Memories của Le Chat lưu giữ lịch sử trò chuyện, quyết định và các điểm tham chiếu trước đó để ở mỗi luồng hội thoại có thể mang lại trải nghiệm cá nhân hóa tốt hơn, đề xuất phù hợp hơn và phản hồi đáng tin cậy hơn dựa trên thông tin trong quá khứ.

  • Tập trung vào độ chính xác và độ tin cậy nên chỉ lưu những nội dung quan trọng, tự động loại trừ thông tin nhạy cảm/tạm thời
  • Người dùng có thể trực tiếp thêm, sửa, cập nhật, xóa nội dung bộ nhớ, đồng thời có thiết lập quyền riêng tư minh bạch
  • Cũng hỗ trợ công cụ nhập để nhanh chóng nhập dữ liệu bộ nhớ từ ChatGPT

Hướng dẫn bắt đầu và sự kiện

  • Tính năng đầu nối và bộ nhớ được mở miễn phí cho mọi người dùng Le Chat
  • Có thể sử dụng ngay trên trình duyệt web và ứng dụng iOS/Android (Le Chat by Mistral AI)
  • Cũng hỗ trợ triển khai doanh nghiệp quy mô lớn hơn và tư vấn tùy chỉnh

Thông tin webinar và hackathon

  • Ngày 9 tháng 9: tổ chức webinar giới thiệu tính năng Le Chat MCP, chia sẻ cách sử dụng mới nhất và hỏi đáp trực tiếp
  • Ngày 13–14 tháng 9: tại Paris sẽ diễn ra hackathon Mistral AI MCP kéo dài 2 ngày, mang đến cơ hội hiện thực hóa ý tưởng cùng các kỹ sư AI và nhận cố vấn chuyên môn

Tuyển dụng

Le Chat đang tuyển dụng các nhà phát triển muốn cùng xây dựng sản phẩm AI đẳng cấp thế giới

1 bình luận

 
GN⁺ 2025-09-05
Ý kiến trên Hacker News
  • Gần đây tôi đã nâng cấp phần lớn pipeline của mình từ gpt-4.1-mini lên gpt-5-mini, nhưng hiệu năng tệ đến mức sau khi điều tra xong tôi quyết định chuyển hết sang mistral-medium-0525
    Giá giống nhau nhưng đầu ra tốt hơn hẳn, độ tin cậy cao hơn và nhanh hơn khoảng 10 lần
    Điểm trừ là khi thất bại thì nó có xu hướng hỏng hoàn toàn
    gpt-5-mini bỏ qua khoảng 70% định dạng trong prompt, còn mistral-medium tuân thủ đúng 99%, nhưng khoảng 1% trường hợp lại chèn các ký tự ngẫu nhiên không rõ lý do, thường là dấu backtick, rồi tự gây ra lỗi định dạng
    Dù vậy tôi vẫn rất hài lòng với Mistral
    • Việc bọc JSON do LLM tạo ra bằng kiểu json ... là mẫu quá phổ biến, nên tôi kiểm tra và sửa những chỗ đó ở tầng ứng dụng
      10 năm trước khi tạo dữ liệu tổng hợp bằng LSTM tôi cũng từng làm các bước sanity check tương tự cho định dạng
    • Tôi cũng có trải nghiệm tương tự trong pipeline của mình
      Để tiết kiệm chi phí và thử các sản phẩm ngoài OpenAI, tôi đang dùng Mistral Small cho phần tóm tắt và Large cho phân tích cuối cùng, và cực kỳ hài lòng
      Ngoài ra còn có free tier rất hào phóng, cực kỳ hữu ích khi làm PoC và demo
    • Tôi muốn hỏi bạn có dùng structured output với gpt-5 mini không
      Nếu có ví dụ nó hay thất bại, bạn có thể cho xem không?
      Tôi thắc mắc vì sao ràng buộc ở mức token lại có thể lệch khỏi định dạng mong muốn đến vậy
    • Dự án của tôi cũng có bước để người dùng chọn nhiều tùy chọn khác nhau, và trong bộ test hỗ trợ workflow này, tỷ lệ thành công của gpt-4.1-mini cao hơn khoảng 7% so với gpt-5 và gpt-5-mini (không cần suy luận đặc biệt)
    • Tôi tò mò prompt của bạn được cấu trúc thế nào, vì trải nghiệm của tôi hoàn toàn ngược lại
      Tôi hỏi rất nhiều câu one-shot ngẫu nhiên trên lmarena, và khi tôi bỏ phiếu mù thì mistral-medium luôn là lựa chọn tệ hơn
      So với qwen, llama, gemini, gpt v.v., nó có tỷ lệ đưa ra thông tin sai sự thật cao vượt trội
      Nếu bạn có thể chia sẻ prompt mẫu thì tốt quá, tôi muốn biết nó phản hồi tốt với kiểu gì
  • Nếu có người của Mistral đọc bài này, tôi muốn hỏi có cách nào đưa triển khai MCP bên thứ ba vào thư mục connector không
    Tôi đã làm một MCP connector có thể kết nối với mọi giao thức truyền tệp có thể nghĩ tới, từ S3 đến FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive, Sharepoint
    Tôi đã thêm nhiều lớp như ủy quyền xác thực, ép buộc quyền hạn, hỗ trợ RBAC, giới hạn quyền truy cập của LLM bằng Chroot, và cả công cụ để trực quan hóa/chỉnh sửa nhiều định dạng tệp
    Nó là mã nguồn mở, và sẽ rất tuyệt nếu được thêm vào thư mục
    https://github.com/mickael-kerjean/filestash
  • Mistral gần đây được định giá 14 tỷ USD trong vòng gọi vốn
    So với Anthropic hay OAI thì mức định giá này thấp hơn khá nhiều, nên với tôi nó có cảm giác rất rẻ
    Để hiểu rõ hơn mức định giá đó thì sẽ rất thú vị nếu so sánh doanh thu và tốc độ tăng trưởng
    Và có vẻ Mistral gần như là người chơi quan trọng duy nhất còn lại trong nhóm công ty Gen AI mới nổi gắn với châu Âu
    Aleph Alpha giờ gần như không còn được nhắc tới, và do Schwarz Group dẫn dắt nên thực tế gần như chỉ còn ở mức thương vụ acqui-hire
  • Tôi đang trả tiền để dùng Lumo LLM Chat của ProtonMail, tập trung vào quyền riêng tư, và nó có công cụ tìm kiếm web khá tốt
    Lumo chạy trên các mô hình của Mistral
    Tôi dùng nó thường xuyên và phần lớn kết quả là đủ tốt để hài lòng
    Tuy vậy để lập trình thì tôi vẫn dùng gemini-cli và codex của OpenAI khoảng 2-3 lần mỗi tuần
    Tôi sống ở Mỹ, nhưng nếu là người châu Âu thì tôi sẽ ủng hộ Mistral hết mình vì ngành AI của khu vực và quốc gia mình
    • Cần lưu ý là Proton có phần không minh bạch về việc mã nào là mã nguồn mở
      https://news.ycombinator.com/item?id=44665398
    • Tôi tò mò không biết ProtonMail đang làm gì ở nội bộ
      Endpoint API công khai của Mistral đi qua CloudFlare, và các mô hình của Trung Quốc mà tôi kiểm tra cũng đều như vậy
    • Có cảm giác rằng nếu thực sự thành công thì cuối cùng họ vẫn có khả năng cao bị các đối thủ lớn của Mỹ mua lại
  • Tôi chưa từng dùng mô hình của Mistral nhưng thực sự rất thích thiết kế của họ
    Xin dành lời khen cho đội thiết kế Mistral vì phong cách pixel art hiện đại với màu cam
    • Tôi thấy ấn tượng vì họ dùng Arial làm font cho toàn bộ website, một lựa chọn rất khác biệt
  • Tôi không hiểu vì sao nên dùng dịch vụ MCP của Mistral thay vì các dịch vụ MCP chính thức như Notion, Stripe v.v.
    Có vẻ dịch vụ MCP chính thức chắc chắn sẽ tốt hơn, vì cũng không cần cấp quyền truy cập tài nguyên cho Mistral
  • Mistral sắp chốt vòng gọi vốn với mức định giá 14 tỷ USD
    https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
    • Trông không lớn lắm, Anthropic gần đây cũng huy động gần mức đó
      Tôi nghi ngờ liệu Mistral có thật sự sống sót được không
  • Họ nói là có "thư mục hơn 20 connector bảo mật", nhưng không giải thích 'bảo mật' ở đây nghĩa là gì
    Có lẽ ý là thế này
    Quản trị viên có thể kiểm soát chi tiết người dùng nào được dùng connector nào, đồng thời quyền truy cập cũng được quản lý chặt bằng xác thực thay mặt người dùng (on-behalf authentication)
    • Tôi tò mò không biết chức năng MCP mà Stripe, Paypal v.v. cung cấp là gì
      Không rõ có bao gồm chuyển đổi tỷ giá, phí, tài liệu API v.v. hay không
  • Mọi tính năng đều dùng được trong gói miễn phí, cấu hình rất tuyệt