- Khi chi phí và nhân lực phát triển phần mềm giảm mạnh nhờ công cụ AI, câu hỏi cốt lõi trở thành: đâu mới là rào cản gia nhập của doanh nghiệp phần mềm
- Trong bối cảnh AI hiện có thể thay thế phần lớn các tác vụ chuyển đổi, chỉ còn dữ liệu thế giới thực do con người tạo ra là con hào (moat) duy nhất mà agent AI không thể sao chép
- Thị trường dữ liệu đang phân đôi (bifurcation) thành 'dữ liệu do con người tạo' và 'dữ liệu do AI tạo'; loại đầu tiên ngày càng tăng giá trị, còn loại sau đang dần trở thành hàng hóa phổ thông
- Phần mềm chuyển đổi đơn thuần (workflow như Excel → PDF → email) có thể bị agent AI thay thế, nhưng việc thu thập dữ liệu liên tục ở quy mô lớn và system of record thì không thể thay thế
- Đạt được API parity (tính tương đương tính năng trên UI · REST · MCP) và tích lũy metadata sẽ là năng lực cạnh tranh cốt lõi của doanh nghiệp phần mềm trong tương lai
Sự thay đổi của con hào phần mềm trong kỷ nguyên AI
- Dù công cụ dựa trên LLM đã khiến việc phát triển phần mềm phức tạp trở nên dễ hơn đáng kể, nhưng chưa phải đã được giải quyết hoàn toàn
- Vẫn cần một người điều phối (orchestrator) biết phải xây dựng cái gì; đây là vai trò nằm ở giao điểm giữa quản lý sản phẩm, phát triển khách hàng và kỹ thuật, chứ không chỉ là năng lực kỹ thuật
- Những việc trước đây cần 10 người để làm ra thứ có ý nghĩa đang dịch chuyển theo hướng chỉ còn 3 người, 2 người, thậm chí 1 người
- Khi sản phẩm phần mềm trở nên dễ triển khai và bảo trì hơn, những con hào trước đây (độ khó phát triển, việc sản phẩm hóa kiến thức miền, v.v.) sẽ phần lớn bị AI thay thế
Đại phân kỳ dữ liệu (The Great Data Bifurcation)
- Thế giới dữ liệu đang tách thành hai nhánh
- Dữ liệu do con người tạo ra: tập podcast, video, bài đăng mạng xã hội, bài blog và các nội dung do con người trực tiếp làm ra
- Dữ liệu do AI tạo ra: ảnh AI, giọng nói tổng hợp TTS, video hoàn toàn do AI sản xuất, email spam do agent viết, v.v.
- Dữ liệu do con người tạo ra tăng giá trị nhờ tính khan hiếm và độc nhất, trong khi dữ liệu do AI tạo ra sẽ trở thành hàng hóa (commodity) khi mô hình ngày càng nhanh và rẻ hơn
- Dữ liệu của con người chứa toàn bộ tri thức mà chỉ chính người tạo ra nó sở hữu, nên người đó là chủ thể duy nhất có thể tạo ra dữ liệu ấy
- Vì AI về bản chất không thể tạo ra dữ liệu do con người sinh ra, nên dữ liệu thế giới thực do con người tạo, kiểm chứng và tinh lọc sẽ là con hào đáng tin cậy duy nhất của các startup phần mềm trong 10 năm tới
Trường hợp Podscan: hiện thực của con hào dữ liệu
- Giá trị cốt lõi của dịch vụ giám sát podcast Podscan không nằm ở tốc độ thu thập RSS feed hay tốc độ phản hồi API
- Giá trị thực sự nằm ở dữ liệu phiên âm (transcription) và phân tích AI (từ khóa, chủ đề, phân tích cảm xúc) của 50 triệu tập podcast
- Cốt lõi của giá trị gia tăng là thu thập dữ liệu công khai (các tập podcast) rồi biến chúng thành dạng được phiên âm, chuyển đổi và có thể truy cập được
- Có thể dùng cho nhiều mục đích như theo dõi nhắc đến thương hiệu, nắm bắt xu hướng theo thời gian thực, hay đánh giá tài trợ podcast
- Càng nâng cao độ chính xác (fidelity) và độ mới (freshness) của dữ liệu thì giá trị khách hàng cảm nhận được càng tăng
- Dù UI bất tiện hay API bị hạn chế, khách hàng vẫn sẽ tìm ra cách truy cập dữ liệu — bản thân dữ liệu mới là yếu tố quyết định
- Nếu chỉ cung cấp tính năng nhận URL rồi phiên âm và phân tích, thì có thể bị thay thế bằng một skill trong Claude Code chỉ trong vòng 2 giờ
- Nếu dùng agent để thu thập, phiên âm và phân tích 50.000 tập mỗi ngày, riêng chi phí API cũng lên đến hàng chục nghìn USD mỗi ngày, gần như bất khả thi
Điểm yếu của phần mềm kiểu chuyển đổi
- Phần mềm chuyển đổi thuần túy (transformative) nhận dữ liệu đầu vào, xử lý rồi tạo đầu ra rất dễ bị agent AI thay thế
- Ví dụ: "ChatGPT, hãy dùng file Excel này tạo báo cáo, export thành PDF rồi gửi email giúp tôi" — có thể tự động thực hiện mà không cần dịch vụ bên ngoài
- AI có thể tự triển khai hoặc tận dụng sẵn các thành phần như phân tích Excel, truy vấn phân tích, render PDF và gửi email
- Doanh nghiệp SaaS chỉ phục vụ workflow như Excel → báo cáo → email không còn cần thiết nữa
- Ngược lại, thu thập dữ liệu liên tục ở quy mô lớn là lĩnh vực mà agent khó thay thế
- Do agent có tính tạm thời, chỉ tồn tại theo từng session (như Cursor, Claude Code, hội thoại ChatGPT, v.v.)
- Agent quét và xử lý thường trực sẽ tiêu tốn token khổng lồ, nên không thực tế về mặt kinh tế
Chiến lược kinh doanh API-first
- Trong doanh nghiệp phần mềm ngày nay, chiến lược API-first là một trong những lựa chọn khôn ngoan nhất
- MCP chỉ là một lớp nằm trên REST API hiện có; truy cập theo lập trình, MCP, API hay webhook đều có cùng bản chất là kết nối ổn định giữa các máy tính
- Nhu cầu về tính tương đương tính năng (parity) giữa UI và API đang gia tăng trong cộng đồng startup
- Càng nhiều việc làm được trên UI mà API cũng làm được y hệt, khả năng khách hàng chấp nhận sản phẩm càng cao
- Trong kỷ nguyên agent, khả năng tự động hóa trở thành yếu tố then chốt trong quyết định mua hàng
- Podscan vận hành một platform parity tracking file
- Với mọi tính năng, họ quản lý bằng bảng việc UI, REST API và MCP có hỗ trợ hay không
- Một sub-agent của Claude Code sẽ phân tích codebase và cập nhật file đó định kỳ
- Bao gồm cả tính năng đơn giản như "tìm kiếm podcast" lẫn tính năng phức tạp như "cảnh báo từ khóa nhắc đến thương hiệu → thêm vào danh sách → kích hoạt webhook"
- Cần phục vụ bình đẳng cả ba loại người dùng: người dùng con người, người dùng máy tính và người dùng agent
Metadata mới là con hào
- Con hào dữ liệu không chỉ giới hạn ở dữ liệu podcast
- Metadata được thu thập khi sử dụng nền tảng (khung giờ đăng bài, thời điểm có tỷ lệ tương tác cao, loại nội dung thúc đẩy tương tác, v.v.) cũng là con hào dữ liệu riêng biệt
- Ví dụ: nếu là công cụ đăng bài lên Twitter·Facebook, thì dữ liệu về mẫu hành vi người dùng chính là con hào
- Sở hữu dữ liệu là một nửa của con hào, nửa còn lại là biến dữ liệu đó thành thứ có thể truy cập được
- Nhiệm vụ cốt lõi là xác định sản phẩm của mình đang có những nguồn dữ liệu giá trị gia tăng nội bộ nào, rồi khiến chúng trở nên có thể kết nối và truy cập được
2 bình luận
Giống như việc huấn luyện AlphaGo được thực hiện bằng dữ liệu tự đấu AlphaGo vs AlphaGo, việc huấn luyện LLM cũng đang tạo dữ liệu bằng LLM rồi dùng nó để huấn luyện. Chỉ cần có vài mẫu dữ liệu là cũng dễ dàng tạo ra thêm dữ liệu, nên điều này cũng khó có thể xem là một hào lũy an toàn.
Cũng có vẻ giống như sự khác biệt giữa học tăng cường và deep learning. Ở những nơi không thể cung cấp vòng lặp phản hồi mang tính quyết định, dữ liệu do con người tạo ra dường như vẫn còn là hào lũy cho đến hiện tại.