- Kết quả mổ xẻ ngược 200 startup AI cho thấy nhiều công ty tuyên bố sở hữu công nghệ riêng, nhưng trên thực tế lại vận hành theo kiểu gọi API bên ngoài
- Trong số các công ty được khảo sát, 73% chỉ sử dụng nguyên trạng API của OpenAI hoặc Claude, rồi bổ sung thêm giao diện người dùng hoặc một vài tính năng đơn giản
- Một tỷ lệ lớn startup quảng bá “LLM độc quyền” của mình thực chất chỉ là wrapper GPT-4 gửi request tới
api.openai.com, và đang bán với biên lợi nhuận cao gấp hàng chục đến hàng trăm lần chỉ nhờ chèn thêm prompt hệ thống đơn giản
- Phần lớn các dịch vụ nhấn mạnh kiến trúc RAG cũng chỉ đang đóng gói tổ hợp stack 40 dòng tiêu chuẩn gồm OpenAI
text-embedding-ada-002 · Pinecone/Weaviate · GPT-4 như thể đó là “hạ tầng độc quyền”, trong khi với 1M truy vấn chi phí mỗi tháng khoảng 30.000 USD nhưng doanh thu đạt 150.000~500.000 USD, tương ứng cấu trúc biên lợi nhuận 80~94%
- Ngược lại, 27% còn lại gồm các công ty wrapper minh bạch công bố stack như “Built on GPT-4”, các builder thực sự tự huấn luyện mô hình, hoặc các nhóm có điểm khác biệt kỹ thuật thực sự như bỏ phiếu đa mô hình hay framework agent
- Kết quả khảo sát cho thấy nhiều startup AI thực chất là doanh nghiệp dịch vụ dựa trên API nhưng vẫn quảng bá “hạ tầng AI độc quyền”, đồng thời nhấn mạnh rằng nhà đầu tư, khách hàng và lập trình viên đều có thể xác minh chỉ bằng cách mở tab Network trong DevTools, qua đó cho thấy hệ sinh thái AI cần công bố kỹ thuật trung thực hơn
Tổng quan
- Nhắm vào ứng dụng web của 200 startup AI đã nhận vốn đầu tư bên ngoài, nhóm nghiên cứu đã lần theo network traffic, code và API call để phân tích sự khác biệt giữa tuyên bố marketing và stack kỹ thuật thực tế
- Điểm khởi đầu là nghi ngờ một công ty tuyên bố có “hạ tầng deep learning độc quyền” nhưng thực chất chỉ gọi OpenAI API
- Công ty này đã gọi được 4,3 triệu USD vốn đầu tư và đang huy động vốn bằng câu chuyện rằng họ “xây dựng một hạ tầng về cơ bản khác biệt”
- Kết quả cho thấy ở 73% công ty được khảo sát có độ vênh đáng kể giữa công nghệ được quảng bá và cách triển khai thực tế, trong đó nhiều nơi chỉ đơn giản là wrapper cho API mô hình bên thứ ba
- Mẫu khảo sát gồm 200 startup AI thu thập từ YC, Product Hunt, các bài đăng LinkedIn kiểu “We’re hiring”, loại trừ các công ty thành lập chưa quá 6 tháng và tập trung vào những nơi đã gọi vốn bên ngoài và có tuyên bố kỹ thuật cụ thể
- Cách khảo sát chỉ dừng ở mức công cụ dành cho nhà phát triển trên trình duyệt theo kiểu thụ động, không truy cập hệ thống riêng tư, không vượt qua xác thực, không vi phạm TOS
Phương pháp khảo sát (Methodology)
- Sử dụng Playwright, aiohttp và các công cụ tương tự để xây dựng pipeline phân tích tự động, đồng thời thu thập thống nhất ba loại dữ liệu từ từng website startup
- Dùng
capture_network_traffic(url) để ghi lại header mạng và mẫu request
- Dùng
extract_javascript(url) để dịch ngược và phân tích bundle JS
- Dùng
monitor_requests(url, duration=60) để theo dõi mẫu gọi API trong 60 giây
- Với mỗi website, các thông tin sau được ghi lại dưới dạng có cấu trúc
claimed_tech: tuyên bố công nghệ xuất hiện trong nội dung marketing và câu chữ trên web
actual_tech: stack thực tế được xác nhận qua header HTTP, bundle JS và API call
api_fingerprints: dấu vân tay API bên thứ ba được suy ra từ domain được gọi, header, độ trễ và các tín hiệu khác
- Thời gian crawl kéo dài 3 tuần, và toàn bộ mẫu hình đều chỉ sử dụng dữ liệu công khai có thể quan sát qua web công khai và DevTools của trình duyệt
Kết quả chính: độ vênh xuất hiện ở 73%
- Trong tổng số 200 công ty, có 73% nơi xuất hiện chênh lệch lớn giữa các tuyên bố như “mô hình độc quyền”, “hạ tầng tùy chỉnh”, “nền tảng deep learning” trong nội dung marketing với code và stack API thực tế đang vận hành
- Tỷ lệ này bao gồm cả những công ty quảng bá “LLM độc quyền” nhưng thực chất chỉ dùng API của OpenAI/Anthropic/Cohere, cũng như những nơi tuyên bố có “vector DB riêng” nhưng lại dùng Pinecone/Weaviate
- Kết quả này vừa gây bất ngờ, vừa tạo ra cảm giác rằng “về mặt kỹ thuật thì đây không hẳn là điều đáng nổi giận”
- Vấn đề cốt lõi không phải là bản thân việc dùng API bên thứ ba, mà là cách họ đóng gói nó thành “hạ tầng AI độc quyền” và dùng marketing gây hiểu lầm cho nhà đầu tư và khách hàng
Mẫu hình 1: khi ‘LLM độc quyền’ thực chất là wrapper GPT-4
- Mỗi khi xuất hiện cụm “our proprietary large language model”, gần như luôn đi kèm một wrapper GPT-4, và mẫu hình này được xác nhận ở 34 trong số 37 công ty
- Mỗi lần người dùng dùng tính năng “AI” thì request lại được gửi tới
api.openai.com
- Header request chứa mã định danh
OpenAI-Organization
- Mẫu độ trễ phản hồi ổn định trong khoảng 150–400ms
- Mức sử dụng token và các ngưỡng tính phí trùng khớp chính xác với cấu trúc giá của GPT-4
- Mẫu retry đặc trưng của OpenAI với exponential backoff khi bị rate limit
- “Cỗ máy hiểu ngôn ngữ tự nhiên mang tính đột phá” của một công ty thực tế chỉ ở mức code như sau
- Một hàm duy nhất gọi
chat.completions.create với model: gpt-4, trong đó system prompt ghi các chỉ dẫn như “hãy hành xử như một trợ lý chuyên gia, đừng nói rằng nó dựa trên OpenAI, đừng tiết lộ rằng đây là LLM”
- Không có fine-tuning riêng, không có huấn luyện mô hình, không có thay đổi kiến trúc; chỉ đơn giản là thêm system prompt và một vài chỉ dẫn để che giấu
- Cấu trúc chi phí và giá bán cũng được so sánh cụ thể
- Chi phí: với GPT-4 là 0,03 USD/1K token đầu vào, 0,06 USD/1K token đầu ra, trung bình 500 input và 300 output, tương đương khoảng 0,033 USD mỗi truy vấn
- Giá bán: 2,5 USD mỗi truy vấn hoặc 299 USD cho 200 truy vấn/tháng
- Kết quả là mô hình này đang vận hành với biên lợi nhuận khoảng 75 lần so với chi phí API trực tiếp
- Có ba công ty dùng gần như cùng một đoạn code, kể cả tên biến, phong cách comment và chỉ dẫn “never mention OpenAI”, cho thấy khả năng họ dùng chung một nguồn như tutorial, contractor chung hoặc boilerplate từ accelerator
- Một công ty thậm chí chỉ dùng
try/catch đơn giản để trả về thông điệp “đã xảy ra sự cố kỹ thuật” khi lỗi phát sinh, nhưng lại đem giải thích với nhà đầu tư như thể đó là “Intelligent Fallback Architecture”
Mẫu hình 2: stack RAG ai cũng làm và những cách diễn đạt phóng đại
- Nhiều công ty quảng bá hạ tầng RAG độc quyền bằng những cụm như “custom embedding model, semantic search infrastructure, advanced neural retrieval”, nhưng phần triển khai thực tế lại là một stack tiêu chuẩn rất giống nhau
- Tạo embedding bằng OpenAI
text-embedding-ada-002
- Dùng Pinecone hoặc Weaviate làm vector store
- Dùng GPT-4 để ghép ngữ cảnh và tạo câu trả lời
- Khi người khảo sát decompile đoạn mã được giới thiệu là “Proprietary Neural Retrieval Architecture”, kết quả là một cấu trúc chỉ gồm khoảng 40 dòng mã Python gọi nguyên xi ba bước trên
- Chuyển câu hỏi thành embedding
- Tìm kiếm tài liệu top-k trong vector DB
- Nối các đoạn văn bản tìm được rồi chuyển vào GPT-4 dưới dạng system message
- Đồng thời gửi câu hỏi người dùng dưới dạng user message để tạo câu trả lời
- Cấu trúc chi phí và giá bán cũng cho thấy chênh lệch rất lớn
- OpenAI embedding: 0,0001 USD cho mỗi 1K token
- Truy vấn Pinecone: 0,00004 USD mỗi lần gọi
- GPT-4 completion: 0,03 USD cho mỗi 1K token
- Cộng lại, chi phí ở mức khoảng 0,002 USD mỗi truy vấn
- Trong khi đó, mức tính phí thực tế cho khách hàng là 0,5~2 USD mỗi truy vấn, tức biên lợi nhuận gấp 250~1000 lần so với chi phí API
- Có 42 công ty sử dụng gần như cùng một stack và cấu trúc mã, và thêm 23 công ty khác có mô hình giống nhau trên 90%
- Khác biệt chủ yếu chỉ là chọn Pinecone hay Weaviate, tên biến, hoặc có thêm Redis cache hay không
- Thậm chí có trường hợp gắn Redis cache rồi marketing nó thành “optimization engine”, hoặc thêm logic retry rồi gọi đó là “Intelligent Failure Recovery System”
- Bài viết cũng tính thử hiệu quả kinh tế của một startup ở mức 1 triệu truy vấn mỗi tháng
- Chi phí: embedding khoảng 100 USD, hosting Pinecone khoảng 40 USD, GPT-4 completion khoảng 30.000 USD, tổng cộng khoảng 30.140 USD/tháng
- Doanh thu: 150.000~500.000 USD/tháng
- Cấu trúc kinh doanh với biên lợi nhuận gộp rất cao, khoảng 80~94%
Mẫu hình 3: Ý nghĩa thực tế của câu “chúng tôi tự fine-tune”
- Khi lần theo hạ tầng của các công ty dùng cách diễn đạt “chúng tôi tự fine-tune mô hình”, kết quả cho thấy họ chủ yếu chia thành hai nhóm lớn
- Một số ít (khoảng 7%) thực sự chạy job huấn luyện riêng thông qua AWS SageMaker, Google Vertex AI..., lưu model artifact vào bucket S3, rồi vận hành endpoint inference riêng cùng hệ thống giám sát GPU instance
- Phần lớn còn lại dùng fine-tuning API của OpenAI, và trên thực tế có cấu trúc gần với việc “đưa dữ liệu ví dụ và prompt cho OpenAI lưu lại”
- Trường hợp thứ nhất (tự huấn luyện thật) phần nào bộc lộ qua hạ tầng và pipeline triển khai có thể quan sát được ngay từ trình duyệt, còn trường hợp thứ hai thì phần lớn chỉ hiện ra như một lệnh gọi tới endpoint OpenAI duy nhất
Cách phân biệt nhanh một công ty wrapper
-
Mẫu hình network traffic
- Chỉ cần mở DevTools(F12) → tab Network trong trình duyệt rồi xem các request được gửi đi khi sử dụng tính năng AI của dịch vụ là có thể phân biệt khá đơn giản
api.openai.com
api.anthropic.com
api.cohere.ai
- Nếu các domain như vậy xuất hiện trực tiếp thì về cơ bản có thể xem đó là wrapper của API mô hình bên thứ ba
- Độ trễ phản hồi cũng đóng vai trò như một dấu vân tay
- Đặc biệt với OpenAI API, có mẫu độ trễ đặc trưng với phản hồi thường tập trung trong khoảng 200~350ms, từ đó có thể suy đoán mô hình backend
-
Bundle JavaScript và việc lộ key
- Một cách đơn giản khác là tìm các từ khóa sau trong page source và JS bundle
openai, anthropic, claude, cohere, sk-proj- (tiền tố project key của OpenAI) v.v.
- Trong quá trình khảo sát, có 12 công ty triển khai frontend mà vẫn để nguyên API key trong mã, và dù đã gửi email thông báo, không công ty nào phản hồi
-
Ma trận ngôn ngữ marketing
- Bài viết sắp xếp thành dạng bảng mối tương quan giữa ngôn ngữ xuất hiện trong copy marketing và phần triển khai kỹ thuật thực tế, gọi đó là “Marketing Language Matrix”
- Nếu xuất hiện thuật ngữ kỹ thuật cụ thể như “loại GPU instance, kiến trúc serving, kích thước mô hình” thì khả năng cao hơn là công ty đó thực sự có hạ tầng tương đối riêng
- Ngược lại, càng lặp đi lặp lại những buzzword trừu tượng như “advanced AI”, “next-gen intelligence”, “proprietary neural engine”, thì càng có khả năng bên trong chỉ là wrapper của API bên thứ ba
Bản đồ thực tế hạ tầng và địa hình startup AI
- Bài viết tổng hợp bản đồ thực tế hạ tầng của startup AI hiện nay thông qua nhiều sơ đồ
- Nhiều startup tồn tại dưới dạng một lớp ứng dụng mỏng đặt lên trên các nhà cung cấp mô hình như OpenAI, Anthropic, Cohere
- Trên mỗi lớp đó là các dịch vụ cố gắng tạo khác biệt bằng “workflow, UX, dữ liệu miền, pipeline” v.v.
- Từ cấu trúc này, bài viết cho rằng phần lớn startup AI trên thực tế là doanh nghiệp dịch vụ/nền tảng, và có một khoảng cách đáng kể với cách họ tự nhận là “công ty hạ tầng AI độc quyền”
Vì sao cần quan tâm đến vấn đề này
- Trước câu hỏi “nếu chạy tốt thì có gì phải bận tâm?”, người khảo sát đưa ra lý do từ góc nhìn của bốn nhóm liên quan
- Nhà đầu tư: phần lớn dòng vốn đang được rót vào nhiều công ty hiện nay không đi vào nghiên cứu AI/phát triển mô hình, mà thực chất là vào lớp prompt engineering và workflow
- Khách hàng: đang phải trả mức giá có premium hơn 10 lần so với chi phí API thực tế, trong khi nhiều trường hợp có thể tự làm ra chức năng tương tự như một dự án cuối tuần
- Lập trình viên: đằng sau vẻ hào nhoáng của “startup AI”, nhiều trường hợp thực ra chỉ là dịch vụ wrapper có rào cản gia nhập thấp, vì vậy cần nhận ra rằng bản thân mình cũng có thể làm thứ tương tự trong thời gian ngắn
- Hệ sinh thái: việc 73% “công ty AI” đang cường điệu hoặc gây hiểu sai về công nghệ cho thấy toàn cục đang ở trạng thái gần như bong bóng, tạo ra những động lực không lành mạnh
Phổ wrapper: không phải mọi wrapper đều xấu
- Thông qua sơ đồ “Wrapper Spectrum”, bài viết giải thích rằng ngay cả trong nhóm công ty wrapper cũng có những tầng chất lượng khác nhau
- Ở một đầu là những wrapper chỉ đơn giản phủ một lớp UI mỏng lên API của bên thứ ba
- Ở đầu còn lại là các wrapper cao cấp cung cấp workflow chuyên biệt theo miền, UX tốt, điều phối mô hình, pipeline dữ liệu có giá trị v.v.
- Thông điệp cốt lõi không nằm ở chuyện “có phải wrapper hay không”, mà ở sự trung thực và cách tạo ra giá trị
- Những công ty dùng API của bên thứ ba nhưng công khai minh bạch điều đó, đồng thời tạo khác biệt ở cách giải quyết vấn đề, trải nghiệm và dữ liệu, được đánh giá tích cực
27% làm đúng cách
-
Category 1: Wrapper minh bạch (Transparent Wrappers)
- Các công ty trong nhóm này ghi rõ trên trang chủ những cụm như “Built on GPT-4”, và minh bạch rằng thứ họ bán là quy trình công việc, UX và tri thức miền
- Ví dụ: dịch vụ cung cấp tự động hóa tài liệu pháp lý bằng cách kết hợp GPT-4 + mẫu pháp lý
- Ví dụ: dịch vụ dựa trên Claude, chuyên cho định tuyến ticket hỗ trợ khách hàng
- Ví dụ: dịch vụ workflow nội dung kết hợp nhiều mô hình với quy trình review của con người
-
Category 2: Nhà xây dựng thực sự (Real Builders)
- Đây là những công ty thực sự huấn luyện mô hình riêng
- AI y tế vận hành mô hình self-hosting để tuân thủ HIPAA trong lĩnh vực chăm sóc sức khỏe
- Dịch vụ huấn luyện và vận hành mô hình rủi ro tùy chỉnh cho phân tích tài chính
- Dịch vụ phát triển và triển khai mô hình computer vision chuyên biệt trong tự động hóa công nghiệp
-
Category 3: Tổ hợp đổi mới (Innovators)
- Nhóm này bao gồm các công ty dùng mô hình bên thứ ba nhưng xây dựng trên đó một cấu trúc thực sự mới
- Hệ thống kết hợp đầu ra của nhiều mô hình để triển khai cải thiện độ chính xác dựa trên cơ chế bỏ phiếu
- Hệ thống thực hiện các tác vụ phức tạp bằng cách xây dựng framework memory và agent
- Các trường hợp áp dụng kiến trúc retrieval theo kiểu mới
- Điểm chung của các công ty này là họ có thể giải thích chi tiết kiến trúc của mình, và thực sự sở hữu cấu trúc do chính họ xây dựng
Bài học rút ra: vấn đề quan trọng hơn stack, và cả sự trung thực
- Kết quả điều tra trong 3 tuần có thể tóm gọn như sau
- Vấn đề cần giải quyết quan trọng hơn bản thân stack công nghệ, và trên thực tế, khá nhiều sản phẩm xuất sắc nhất lại có cấu trúc có thể bị gọi là “chỉ là wrapper”
- Tuy vậy, sự trung thực là một chiều kích quan trọng riêng biệt, và khác biệt giữa wrapper thông minh với wrapper mang tính lừa dối nằm ở tính minh bạch
- Cơn sốt vàng AI đang tạo ra động lực thúc ép đưa ra tuyên bố sai lệch, vì kỳ vọng của nhà đầu tư và khách hàng đều đòi hỏi “AI độc quyền”
- Và xây dựng trên API tự nó không phải điều đáng xấu hổ; vấn đề là che giấu chuyện đó rồi gắn mác “kiến trúc mạng nơ-ron độc quyền”
Khung đánh giá và lời khuyên thực tế
-
Bài kiểm tra khả năng sao chép trong 48 giờ
- Tác giả đề xuất một tiêu chí đơn giản để đánh giá mọi “startup AI”
- “Liệu có thể sao chép công nghệ cốt lõi của họ trong vòng 48 giờ không?”
- Nếu có thể, thì xét về mặt kỹ thuật đó là một wrapper, và
- nếu họ công khai trung thực về stack thì đó vẫn là công ty ổn
- còn nếu họ che giấu và tuyên bố có “hạ tầng AI độc quyền” thì nên coi là công ty cần tránh
-
Lời khuyên cho nhà sáng lập
- Với nhà sáng lập, tác giả đề xuất các nguyên tắc sau
- Công khai trung thực về stack
- Cạnh tranh bằng UX, dữ liệu và chuyên môn miền
- Đừng tuyên bố đã làm ra thứ mà mình chưa hề làm
- Hãy chấp nhận rằng “Built with GPT-4” không phải điểm yếu mà là mô tả trung thực
-
Lời khuyên cho nhà đầu tư
- Với nhà đầu tư, bài viết đưa ra các điểm kiểm chứng sau
- Yêu cầu sơ đồ kiến trúc
- Yêu cầu hóa đơn API của OpenAI, Anthropic... để xác nhận mức độ phụ thuộc thực tế
- Định giá các công ty wrapper đúng với bản chất là công ty wrapper
- Thưởng bằng incentive cho các đội ngũ công khai stack một cách trung thực
-
Lời khuyên cho khách hàng
- Với khách hàng, bài viết đề xuất các mục thực hành sau
- Mở tab Network trong trình duyệt và kiểm tra các request đi ra
- Hỏi trực tiếp về hạ tầng và cách dùng mô hình
- Kiểm tra xem mình có đang trả mức markup hơn 10 lần không cần thiết cho các lệnh gọi API hay không
- Đánh giá theo kết quả thực tế và khả năng giải quyết vấn đề, thay vì chỉ theo tuyên bố công nghệ
Tóm tắt một dòng về bản chất của “startup AI”
- “Phần lớn ‘startup AI’ gần với một doanh nghiệp dịch vụ dùng chi phí API thay cho chi phí nhân sự hơn”
- Đây không phải mô hình kinh doanh sai, mà là thực tế cần được thừa nhận và giải thích trung thực
Diễn biến và phản ứng sau điều tra
- Tuần 1: Ban đầu tác giả dự đoán khoảng 20~30% sẽ dùng API bên thứ ba, nhưng cho biết kết quả thực tế cao hơn nhiều
- Tuần 2: Một nhà sáng lập hỏi tác giả rằng “làm sao anh vào được môi trường production của chúng tôi”, và tác giả giải thích rằng mình chỉ xem tab Network của trình duyệt
- Tuần 3: Hai công ty đã đề nghị gỡ kết quả điều tra xuống, nhưng bài viết không nêu tên công ty cụ thể và cho biết đến nay vẫn giữ nguyên như vậy
- Hôm qua: Một VC đã đề nghị tác giả audit các công ty trong danh mục đầu tư của họ trước cuộc họp hội đồng quản trị tiếp theo, và tác giả nói mình đã đồng ý
Kế hoạch công bố dữ liệu và công cụ
- Dựa trên nghiên cứu lần này, tác giả có kế hoạch công bố phương pháp luận và công cụ
-
Nội dung dự kiến công bố trên GitHub (miễn phí)
- Toàn bộ mã hạ tầng scraping
- Các kỹ thuật trích xuất API fingerprint
- Script phát hiện mà ai cũng có thể tự chạy
- Bộ mẫu thời gian phản hồi theo từng API AI chính
-
Phân tích chuyên sâu (chỉ dành cho thành viên)
- Trường hợp một “kỳ lân AI” được định giá 33 triệu USD mỗi tháng nhưng thực tế chỉ dùng 1.200 USD chi phí OpenAI mỗi tháng
- Một cấu trúc được giới thiệu là “mô hình 100 triệu tham số” nhưng thực ra chỉ gồm 3 system prompt
- Mã production đang được public để phục vụ thực tế (phía client, snippet đã ẩn danh)
- Khung 5 câu hỏi có thể lập tức vạch ra wrapper
- Các case study so sánh giữa bài thuyết trình cho nhà đầu tư và hạ tầng thực tế
Thông điệp cuối cùng và nhu cầu về ‘kỷ nguyên AI trung thực’
- Cuộc điều tra được tiến hành theo cách không công khai tên công ty mà chỉ chia sẻ các mẫu hình, đồng thời nhấn mạnh niềm tin rằng thị trường cuối cùng sẽ thưởng cho sự minh bạch
- Trên thực tế, đã xác nhận có 18 công ty đúng nghĩa đang tạo ra công nghệ mới, và
- với họ, tác giả gửi thông điệp cổ vũ: “Các bạn biết rõ mình là ai, hãy tiếp tục xây dựng”
- Sau cuộc điều tra, 7 nhà sáng lập đã liên hệ riêng, và
- một số tỏ ra phòng thủ, một số cảm ơn, và ba người đã hỏi cách giúp chuyển hướng marketing từ “proprietary AI” sang “built on best-in-class APIs”
- tác giả cho biết một nhà sáng lập đã thú nhận: “Chúng tôi biết mình đang nói dối, nhà đầu tư kỳ vọng điều đó, ai cũng làm vậy, giờ phải làm sao để dừng lại?”
- Ở cuối bài, tác giả nhấn mạnh thêm một lần nữa rằng cơn sốt vàng AI sẽ không chấm dứt, nhưng kỷ nguyên của sự trung thực phải bắt đầu, và kết lại rằng ai cũng có thể tự kiểm chứng sự thật chỉ bằng cách mở tab Network của DevTools (F12)
3 bình luận
Có một bình luận nói rằng: "Ngay cả sự tồn tại của tác giả cũng đáng bị nghi ngờ. Nguồn dữ liệu cũng không rõ ràng, và cũng không thể tùy tiện bắt lưu lượng mạng. Cần có bước kiểm chứng cơ bản", và tôi đồng ý.
Liên kết LinkedIn ghi trên hồ sơ Medium cũng dẫn tới một trang không tồn tại, nên có vẻ ngay từ đầu đây là một nhân vật không có thật. Việc đến ngày 25 tháng 11 mà vẫn liên tục nhắc đến GPT-4 chứ không phải GPT-4o cũng khá kỳ lạ.
Một lập trình viên đủ khả năng xây dựng đến mức còn thêm cả hệ thống thanh toán đăng ký để kiếm tiền, mà lại triển khai giao tiếp với AI API ở phía client thay vì server để rồi bị phát hiện dễ dàng như vậy... thật khó tin.
Nếu thử tạo agent, bạn sẽ thấy prompt engineering là một ứng dụng có năng suất rất cao trong việc tận dụng AI.
Ý kiến Hacker News
Năm 2023 là một năm mà tuần nào cũng có demo prompt
Ngay cả ở sự kiện AWS, diễn giả cũng mở Claude rồi gõ prompt ngẫu nhiên để lấp đầy cả một tiếng
Đội của chúng tôi cũng gắn tool, connector, hệ thống đánh giá suốt 6 tháng với mục tiêu làm “agent”, nhưng cuối cùng lại quay về prompt engineering
Trước đây có người cố vấn từng nói với tôi rằng “chuyên gia trong công nghệ là người biết hơn người khác một hai điều”
Vì vậy tôi thấy làn sóng prompt engineering hiện nay cũng là một diễn biến tự nhiên. Công nghệ càng mới thì càng phát triển theo kiểu chồng thêm một hai lớp lên stack sẵn có
Câu nói “chỉ là prompt engineering thôi” đã đánh giá thấp độ khó của việc xây dựng hệ thống hiệu năng cao trong thực tế
Thiết kế chỉ số đánh giá, gọi tool, caching... không còn ở mức prompt đơn thuần nữa. Nếu có thể cho thấy kết quả, thì việc gọi vốn sẽ rất dễ
Một bài viết nhắc đến GPT-4 vào tháng 11/2025 thì đã thấy đáng ngờ
Phương pháp xác định nhà cung cấp AI qua network traffic cũng kỳ lạ. Nếu frontend gọi API trực tiếp thì rủi ro lộ khóa bảo mật là rất lớn
Cách điều tra này có mùi gì đó không ổn
Rồi câu hỏi được đặt ra là “vậy rốt cuộc phải làm gì?”
Trong thập niên 90, chỉ cần đặt một UI lên hệ thống console cũng đã là một ý tưởng startup tuyệt vời
Thực ra hiện tượng này đã rất phổ biến ngay cả ở các startup trước thời AI
Chỉ cần bọc công nghệ sẵn có và cải thiện UX là đã kiếm được rất nhiều tiền. Bên trong chỉ là tổ hợp các công cụ mã nguồn mở, nhưng tỷ suất lợi nhuận cao đến mức tự phát triển trở nên vô nghĩa
Tôi đã nghĩ điều này ngay từ sau khi ChatGPT ra mắt.
Nếu có công ty nào thật sự sở hữu AGI, thì họ sẽ chẳng có lý do gì để bán nó cả. Họ chỉ cần trực tiếp làm dịch vụ của mình rồi nghiền nát đối thủ
Chỉ có rất ít công ty làm LLM, và tính năng của họ cũng khá giống nhau
Cuối cùng cốt lõi của tự động hóa vẫn là prompt engineering.
Giống như app di động, big tech chỉ cần muốn là có thể sao chép dễ dàng. Perplexity hay Cursor cũng đầy rủi ro
Bản thân bài báo gây tranh cãi đó trông như nội dung do AI tạo ra
Rất khó tin rằng tác giả đã thực sự phân tích dữ liệu
Có rất nhiều nghi vấn kiểu “người này đã thu thập dữ liệu đó bằng cách nào?”
Nếu là công ty tôi thì không thể công khai dữ liệu khách hàng như vậy được