Tôi cứ tưởng nó sẽ tự động gán, nhưng hóa ra chỉ là kiểu tự đăng ký thôi.
Tôi đang dùng Caddy nên có lẽ cũng không có lý do gì để phải chuyển sang cái này.
Dạo này tôi cũng đang có những suy nghĩ tương tự, nên hôm qua đã viết một bài blog liên quan đến nợ nhận thức. Có vẻ mọi người đều đang có những trăn trở tương tự.
Tôi đang có RTX Pro 6000 (96GB, thực tế là 94GB), nhưng không chạy được model 122B bằng ollama. Có lẽ vì đây là model vision nên do phần có chứa vision transformer. Trong khi đó model GPT OSS 120b thì chạy lên khá dư dả.
Cảm ơn bạn. Mình đã thấy hơi lo khi có cowork xuất hiện, chỉ cần bật PC lên là còn có thể đóng vai trò như một máy chủ, nhưng giờ cũng yên tâm hơn phần nào và trong đầu đã hình dung được mọi thứ sẽ thay đổi như thế nào trong tương lai haha
Nhưng bản thân mô hình cũng thay đổi chỉ trong vài tháng,
và phải sửa agents cho phù hợp với mô hình...
Có phải tốc độ thay đổi của mô hình còn nhanh hơn cả thời gian để tạo ra một cấu trúc agents phù hợp không?
Cứ như thể công cụ đã thay đổi mất rồi trước khi con người kịp làm quen với nó...
Tôi hoàn toàn không phải dân phát triển... chỉ vì thấy thú vị khi vọc AI nên thử bắt nó code chút chút, vậy mà nó cứ tự tạo ra một đống test code dù tôi không hề yêu cầu rồi còn lưu lại, hóa ra là vì lý do này.
Tôi hỏi rốt cuộc cái này cần để làm gì thì nó bảo là cần khi tự viết code, nên đừng xóa đi.
Gemini cũng bị chặn rồi. Claude cũng bị chặn luôn.
Nhưng nếu trả tiền để dùng API thì không có vấn đề gì.
Tôi không thể hiểu được cách nghĩ của một số người nước ngoài cho rằng việc xác thực qua bên thứ ba bằng OAuth để dùng rẻ hơn với gói đăng ký giá thấp sẽ không thành vấn đề.
Tôi cứ tưởng nó sẽ tự động gán, nhưng hóa ra chỉ là kiểu tự đăng ký thôi.
Tôi đang dùng Caddy nên có lẽ cũng không có lý do gì để phải chuyển sang cái này.
Mình đã làm việc này bằng docker + traefik + mkcert rồi, nhưng có vẻ dùng cái đó sẽ tiện hơn.
Giỏi đến mức đáng sợ. Có lẽ việc ngày càng phụ thuộc vào nó không phải là điều tốt.. Cần phải có đối thủ cạnh tranh.
Anthropic đúng là ngày càng làm tốt hơn khi được khen ngợi. Có vẻ họ đang tạo ra cú hích rất lớn cho các công ty khác.
Dạo này tôi cũng đang có những suy nghĩ tương tự, nên hôm qua đã viết một bài blog liên quan đến nợ nhận thức. Có vẻ mọi người đều đang có những trăn trở tương tự.
Thú vị đấy. Bạn có kế hoạch phát triển nào trong tương lai không?
Wow haha
Đúng vậy.. nếu dùng vision encoder thì ngay cả model 1B cũng ngốn tới 9G VRAM đấy.
Tôi nghĩ Sam Altman có lẽ là một kẻ sociopath máu lạnh.
"Hành vi tự tay tạo ra những vật thể hữu hình mang lại sự chuyển hóa nội tâm"
Tôi đang có RTX Pro 6000 (96GB, thực tế là 94GB), nhưng không chạy được model 122B bằng ollama. Có lẽ vì đây là model vision nên do phần có chứa vision transformer. Trong khi đó model GPT OSS 120b thì chạy lên khá dư dả.
Phải chạy bằng máy chủ
llama.cppdựa trên CUDA thì mới đạt hiệu năng.Cảm ơn bạn. Mình đã thấy hơi lo khi có
coworkxuất hiện, chỉ cần bật PC lên là còn có thể đóng vai trò như một máy chủ, nhưng giờ cũng yên tâm hơn phần nào và trong đầu đã hình dung được mọi thứ sẽ thay đổi như thế nào trong tương lai hahaCó người đã nhắc đến điều này trên X, và nếu dùng trong Docker thì nghe nói là ép truyền PID của Docker daemon vào cũng sẽ hoạt động.
https://github.com/vercel-labs/portless/issues/61
Bài viết hữu ích đấy
Vậy là giờ có thể tạm biệt lỗi EADDRINUSE rồi à?
Dạo này phát triển đủ thứ thông qua agent, cứ bật linh tinh lên là chúng nó lại tự va vào nhau, loạn cả lên ấy haha
Nhưng bản thân mô hình cũng thay đổi chỉ trong vài tháng, và phải sửa
agentscho phù hợp với mô hình... Có phải tốc độ thay đổi của mô hình còn nhanh hơn cả thời gian để tạo ra một cấu trúcagentsphù hợp không? Cứ như thể công cụ đã thay đổi mất rồi trước khi con người kịp làm quen với nó...Tôi hoàn toàn không phải dân phát triển... chỉ vì thấy thú vị khi vọc AI nên thử bắt nó code chút chút, vậy mà nó cứ tự tạo ra một đống test code dù tôi không hề yêu cầu rồi còn lưu lại, hóa ra là vì lý do này. Tôi hỏi rốt cuộc cái này cần để làm gì thì nó bảo là cần khi tự viết code, nên đừng xóa đi.
Gemini cũng bị chặn rồi. Claude cũng bị chặn luôn.
Nhưng nếu trả tiền để dùng API thì không có vấn đề gì.
Tôi không thể hiểu được cách nghĩ của một số người nước ngoài cho rằng việc xác thực qua bên thứ ba bằng OAuth để dùng rẻ hơn với gói đăng ký giá thấp sẽ không thành vấn đề.
Ồ... có vẻ đúng thật.