16 điểm bởi GN⁺ 2025-03-12 | 4 bình luận | Chia sẻ qua WhatsApp
  • Công cụ nghiên cứu mạnh mẽ dựa trên AI, sử dụng nhiều LLM và tìm kiếm web để thực hiện phân tích lặp sâu
    • Tích hợp các tính năng tìm kiếm như ArXiv, Wikipedia, Google, PubMed, DuckDuckGo, SerpAPI, RAG cục bộ, The Guardian và nhiều nguồn khác
  • Có thể chạy cục bộ để tăng cường quyền riêng tư hoặc cấu hình LLM nền tảng đám mây để cải thiện hiệu năng

Tính năng nghiên cứu nâng cao

  • Nghiên cứu chuyên sâu tự động: tạo câu hỏi tiếp nối một cách thông minh
  • Theo dõi và xác minh nguồn: tự động theo dõi trích dẫn và nguồn
  • Phân tích lặp: cung cấp phạm vi bao quát toàn diện với phân tích lặp nhiều bước
  • Phân tích toàn bộ nội dung trang web: phân tích dựa trên toàn bộ nội dung thay vì chỉ snippet

Hỗ trợ LLM linh hoạt

  • Hỗ trợ mô hình cục bộ: xử lý AI cục bộ dựa trên Ollama
  • Hỗ trợ mô hình đám mây: hỗ trợ các LLM đám mây như Claude, GPT
  • Tương thích mô hình Langchain: hỗ trợ nhiều mô hình Langchain khác nhau
  • Có thể chọn mô hình: có thể cấu hình mô hình theo hiệu năng, tốc độ phản hồi, v.v.

Tùy chọn đầu ra phong phú

  • Kết quả nghiên cứu chi tiết: cung cấp báo cáo chi tiết kèm trích dẫn
  • Báo cáo nghiên cứu tổng hợp: cung cấp kết quả nghiên cứu toàn diện
  • Tóm tắt nhanh: có thể tóm lược nội dung cốt lõi
  • Theo dõi và xác minh nguồn: hỗ trợ theo dõi và xác minh nguồn

Thiết kế lấy quyền riêng tư làm trọng tâm

  • Có thể chạy cục bộ: khi dùng mô hình cục bộ, toàn bộ dữ liệu được lưu trên thiết bị của người dùng
  • Có thể cấu hình tìm kiếm: tăng cường bảo vệ quyền riêng tư
  • Xử lý dữ liệu minh bạch: công khai rõ ràng cách dữ liệu được xử lý

Tích hợp tìm kiếm nâng cao

  • Tự động chọn công cụ tìm kiếm: tự động chọn công cụ tìm kiếm theo nội dung truy vấn
  • Tích hợp Wikipedia: tra cứu thông tin thực tế đáng tin cậy
  • Tích hợp arXiv: tìm kiếm bài báo khoa học và nghiên cứu học thuật
  • Tích hợp PubMed: tìm kiếm tài liệu nghiên cứu y học và y sinh
  • Tích hợp DuckDuckGo: tìm kiếm web thông thường (có thể bị giới hạn tốc độ)
  • Tích hợp SerpAPI: cung cấp kết quả tìm kiếm Google (cần API key)
  • Google Programmable Search: cấu hình tìm kiếm tùy chỉnh (cần API key)
  • Tích hợp The Guardian: tìm kiếm nội dung tin tức và báo chí (cần API key)
  • Tìm kiếm RAG cục bộ: có thể tìm kiếm tài liệu cá nhân (dùng vector embedding)
  • Tìm kiếm toàn bộ nội dung trang web: có thể tìm trong toàn bộ nội dung trang web
  • Lọc và xác minh nguồn: có thể lọc theo các nguồn đáng tin cậy
  • Có thể cấu hình tham số tìm kiếm: có thể thiết lập phạm vi tìm kiếm, khoảng thời gian, v.v.

Tìm kiếm tài liệu cục bộ (RAG)

  • Tìm kiếm dựa trên vector embedding: có thể tìm nội dung trong tài liệu cá nhân
  • Tạo bộ sưu tập tài liệu tùy chỉnh: có thể nhóm tài liệu theo chủ đề
  • Bảo vệ quyền riêng tư: mọi tài liệu đều được xử lý cục bộ
  • Chunking và truy xuất thông minh: phân đoạn và tìm kiếm nội dung tài liệu
  • Tương thích nhiều định dạng tài liệu: hỗ trợ PDF, văn bản, Markdown, v.v.
  • Tự động áp dụng meta-search tích hợp: có thể tích hợp tìm kiếm cục bộ và tìm kiếm web

Giao diện web

  • Cung cấp dashboard: giao diện trực quan
  • Cập nhật tiến độ theo thời gian thực: cung cấp trạng thái nghiên cứu theo thời gian thực
  • Quản lý lịch sử nghiên cứu: có thể truy cập và quản lý các bản ghi nghiên cứu trước đó
  • Xuất báo cáo PDF: có thể tải báo cáo nghiên cứu dưới dạng PDF
  • Quản lý nghiên cứu: có thể dừng hoặc xóa các nghiên cứu đang chạy

Các tùy chọn công cụ tìm kiếm được hỗ trợ

  • Auto: tự động chọn công cụ theo truy vấn
  • Wikipedia: phù hợp để tra cứu thông tin và dữ kiện chung
  • arXiv: phù hợp để tìm kiếm bài báo khoa học và học thuật
  • PubMed: phù hợp cho nghiên cứu y sinh và y học
  • DuckDuckGo: tìm kiếm web thông thường lấy quyền riêng tư làm trọng tâm
  • The Guardian: tìm kiếm tin tức và báo chí (cần API key)
  • SerpAPI: cung cấp kết quả tìm kiếm Google (cần API key)
  • Google Programmable Search: tìm kiếm tùy chỉnh (cần API key)

4 bình luận

 
zxshinxz 2025-03-13
  • Là người làm trong lĩnh vực sinh học, tôi muốn chia sẻ ngắn gọn kết quả sau khi sử dụng.

Chế độ Research được cung cấp với 2 loại.

  1. Quick summary
  • Thời gian xử lý khoảng 5~6 phút (theo chuẩn 4070 ti super, 16GB, Mistral và Gemma 3:12b)
  • Có hiện tượng ảo giác nên tự tạo Reference, nhưng các Ref có gắn link trong tài liệu có vẻ có nguồn gốc rõ ràng.
  • Có xu hướng trả lời câu hỏi với trọng tâm là công nghệ mới. Đặc biệt hay cố liên hệ với AI.
  1. Detailed Report
  • Thời gian xử lý khoảng 1 giờ (4070 ti super 16GB, Gemma 3:12b)
  • Gần như tạo ra một bài review paper hoàn chỉnh. Tuy nhiên có vấn đề là số lượng Reference giảm mạnh. Dù nội dung có thể đúng thì vẫn khó đưa ra căn cứ, nên cần cải thiện thêm một chút. (Có vẻ như nó thực hiện quá trình lặp lại để nâng chất lượng bài viết, nhưng trong quá trình đó các Ref link bị mất đi.)
  • Tuy vậy, rõ ràng là nội dung được cung cấp có chất lượng cao hơn Quick summary.

Có thể thiết lập nhiều tùy chọn khác nhau trong file Config. Có thể giới hạn cơ sở dữ liệu tìm kiếm chỉ còn PubMed để nâng chất lượng tài liệu lên thêm một mức. Cũng có thể cấu hình số lượng văn bản tìm kiếm mỗi lần hoặc sẽ tạo bao nhiêu chunk khi dùng RAG.

Xét đến việc hiện tại mới là 0.01V, thật đáng kinh ngạc khi một máy Local có thể tạo ra báo cáo đến mức này. Đặc biệt trong lĩnh vực khoa học sự sống, các chatbot thường dùng cách diễn đạt mang tính khái quát, nhưng báo cáo được tạo bởi chương trình này lại dùng lối diễn đạt rất khoa học.

Chương trình này hiện chưa hỗ trợ tiếng Hàn. Dù đặt câu hỏi bằng tiếng Hàn thì báo cáo vẫn được xuất ra bằng tiếng Anh.
Ngoài ra, khi nhận câu trả lời dưới dạng file PDF thông qua tính năng xuất PDF, có vấn đề là tiếng Hàn không hiển thị.

Nếu giải quyết được vấn đề Ref biến mất trong lúc tạo báo cáo và vấn đề gây ra ảo giác, thì tôi nghĩ đây sẽ là một công cụ thực sự mạnh mẽ.

 
zxshinxz 2025-03-14

Dùng thêm một thời gian thì có vẻ trên Ollama, trong số nhiều mô hình khác nhau, Qwen2.5 hoạt động tốt nhất. Deepseek-r1 khi Search lại tạo truy vấn kỳ lạ nên kéo về sai nội dung làm căn cứ, còn dòng Gemma thì nhận các prompt được đưa ra làm ví dụ là prompt thật nên cứ cố chèn đúng nội dung của chủ đề liên quan đó vào.

 
GN⁺ 2025-03-12
Ý kiến Hacker News
  • Hoan nghênh nỗ lực dành cho một không gian cục bộ và độ trung thực thấp. Tuy nhiên, khi đọc các ví dụ trong bài, tôi cảm thấy kết quả tạo ra hơi rối

    • Tôi nghĩ cần thêm một hoặc nhiều bước trung gian. Ví dụ, có thể dùng cơ sở dữ liệu đồ thị để LLM lưu trữ thông tin, kiểm tra tính liên kết, tự đặt câu hỏi cho chính nó và tạo báo cáo cuối cùng
    • Báo cáo cuối cùng có thể là một tệp HTML tương tác để người dùng đặt câu hỏi hoặc chỉnh sửa trực tiếp
    • Có một công cụ open deep research tương tự tên là Onyx, và có vẻ UI/UX tốt hơn. Tác giả có thể cân nhắc port công cụ này sang chạy cục bộ
    • Không phải là dự án này không tốt, mà tôi lo rằng nhiều dự án open deep research sẽ biến mất. Sẽ tốt hơn nếu mọi người hợp tác và tập trung vào những phần được quan tâm nhất
  • Dự án này rất tuyệt

    • Nếu muốn thêm embedding với Internet làm nguồn, tôi khuyên nên thử exa.ai. Nó bao gồm Wikipedia, hàng nghìn feed tin tức, Github và hơn 70 triệu bài báo khoa học
    • Lưu ý: tôi là một trong các nhà sáng lập
  • Tôi đã thử nhưng gặp rất nhiều lỗi nên không thể tạo báo cáo. Không có cách nào để tiếp tục khi quá trình tạo thất bại, nên nếu lệnh gọi API lỗi thì phải bắt đầu lại từ đầu

  • Cũng nên cân nhắc Kagi và Tavily API cho tìm kiếm web

  • Trông rất tuyệt. Tôi tò mò không biết nó so với tính năng RAG của open-webui thế nào

    • Có các cách tìm kiếm web và embedding tài liệu, nhưng kết quả còn kém do mất chi tiết trong embedding. Tôi tự hỏi liệu cách này có tốt hơn không
  • Tôi tự hỏi có ai dùng LLM (cục bộ) để trực tiếp tìm tài liệu liên quan trong một bộ sưu tập tư liệu mà không phụ thuộc vào tìm kiếm vector hay không

  • Làm rất tốt

    • Gần đây tôi nghĩ rằng một bộ sưu tập cục bộ đã được tiền xử lý, sử dụng thông tin có cấu trúc được tuyển chọn cho RAG, có thể là phần bổ sung tốt cho cách tiếp cận tìm kiếm động này
    • Tôi thấy bạn dùng LangChain; có lẽ đáng để xem qua txtai
  • Tôi tự hỏi đã có công cụ nào cung cấp trải nghiệm tìm kiếm bằng AI và trộn nội dung bookmark để tạo báo cáo hay chưa. Bookmark hiện giờ hầu như vô dụng. Cái này có thể khiến chúng trở nên hữu ích

    • Hiện tại, một kiểu lỗi thường gặp trong deep research của OpenAI là lấy câu trả lời từ những nguồn có độ uy tín thấp rồi đưa ra trích dẫn như thể đó là tạp chí khoa học. Những nguồn như vậy hầu như không chứa nội dung có giá trị, và dù các nguồn khác có chất lượng cao thì chỉ một nguồn chất lượng thấp cũng có thể làm hỏng tất cả
    • Nếu nhấn mạnh vào nội dung đã được bạn tuyển chọn sẵn (bookmark), tỷ lệ tín hiệu trên nhiễu (SNR) có thể được cải thiện đáng kể
  • Tôi nghĩ người nào tạo ra được GUI kiểu game 3D cho LLM sẽ vừa là Jobs/Gates/Musk tiếp theo vừa là người đoạt Nobel. Điều đó sẽ cho phép hàng triệu người nhìn vào bên trong LLM và giải quyết vấn đề căn chỉnh. Máy tính chỉ trở nên phổ biến sau khi có hệ điều hành với GUI, còn chatbot hiện nay giống dòng lệnh hơn. Tôi đã mở một ASK HN để chia sẻ các ý tưởng về an toàn AI

 
zhniee 2025-03-13

Không hiểu nổi. Ngay cả trình độ coding của học sinh tiểu học còn chưa tới chứ đừng nói đến mức học thuật, vậy mà sao lại đem ra chia sẻ...