- Diễn giả Gergely Orosz là người vận hành bản tin và podcast Pragmatic Engineer, đồng thời là cựu kỹ sư tại Microsoft và Uber, chia sẻ thực tế triển khai GenAI mà ông quan sát được tại hiện trường
- Trái với kỳ vọng bị thổi phồng của các CEO·nhà sáng lập, trải nghiệm thực tế của lập trình viên cho thấy bức tranh phức tạp hơn do giới hạn của công cụ và độ chênh về năng suất
- Startup công cụ phát triển AI·Big Tech có tỷ lệ sử dụng nội bộ cao và đầu tư cũng sôi động, nhưng một số startup và lĩnh vực đặc thù vẫn ghi nhận hiệu quả khá thấp
- Các lập trình viên độc lập và kỹ sư kỳ cựu gần đây cảm nhận rõ điểm bùng phát của GenAI, và phản hồi tích cực về việc mở rộng năng suất lập trình lẫn sáng tạo
- Kent Beck đánh giá việc đưa LLM vào sử dụng là một chuyển dịch mô hình ở tầm Internet·smartphone, đồng thời nhấn mạnh các thử nghiệm và cách tiếp cận mới
Giới thiệu diễn giả
- Gergely Orosz
- Vận hành bản tin và podcast Pragmatic Engineer
- Có 10 năm kinh nghiệm kỹ sư tại JP Morgan, Microsoft(Skype), Skyscanner, Uber và nhiều nơi khác
- Hiện tập trung nghiên cứu tác động của GenAI lên kỹ nghệ phần mềm
Kỳ vọng bị thổi phồng và thực tế
- CEO Microsoft: "AI viết 30% tổng số mã"
- CEO Anthropic: "Trong vòng 1 năm, 100% mã sẽ do AI tạo ra"
- Jeff Dean của Google: "AI sắp đạt đến trình độ lập trình viên junior"
- Nhưng thực tế:
- AI agent tạo ra lỗi, làm phát sinh chi phí hàng trăm USD
- Trong màn trình diễn tại Microsoft Build, AI thất bại khi sửa mã phức tạp
Startup công cụ phát triển AI
- Anthropic:
- Toàn bộ kỹ sư nội bộ đều dùng Cloud Code
- Hơn 90% mã được viết bằng AI
- Áp dụng MCP(Model Context Protocol) → có thể kết nối IDE·DB·GitHub..., đang lan rộng trên quy mô lớn
- Windsurf: 95% mã do AI viết
- Cursor: 40~50% do AI viết, “một nửa làm tốt, một nửa chạm giới hạn”
Tình hình Big Tech
- Google:
- Tích hợp sẵn tính năng AI trong IDE nội bộ Cider (tự động hoàn thành·review·tìm kiếm mã)
- Trong 1 năm gần đây, việc triển khai nội bộ tăng rất nhanh
- Tổ chức SRE đang tăng cường hạ tầng để đáp ứng lượng dòng mã nhiều gấp 10 lần
- Amazon:
- Amazon Q Developer Pro → mạnh ở các tác vụ liên quan đến AWS
- Mô hình Anthropic (Claude) cũng được dùng tích cực cho soạn tài liệu nội bộ và mùa đánh giá
- Tích hợp rộng rãi máy chủ MCP → tự động hóa công cụ nội bộ ngày càng lan rộng
Startup và các trường hợp riêng lẻ
- Incident.io:
- Cả nhóm tích cực thử nghiệm AI và chia sẻ mẹo trên Slack
- Sau khi áp dụng Cloud Code, tỷ lệ sử dụng tăng vọt
- Startup công nghệ sinh học:
- Cần tự viết nhiều mã mới lạ, nên hiệu quả của LLM thấp
- Vẫn đánh giá tự code trực tiếp là nhanh hơn
Lập trình viên độc lập và kỹ sư kỳ cựu
- Armin Ronacher (người tạo ra Flask): dùng agent như thực tập sinh ảo, cảm nhận năng suất tăng lên
- Peter Steinberger (nhà sáng lập PSPDFKit): cho rằng rào cản ngôn ngữ đang giảm xuống và “ngọn lửa kỹ thuật đã sống lại”
- Simon Willison (đồng sáng lập Django): với các cải tiến mô hình gần đây, “AI coding agent đã bước vào giai đoạn thực dụng”
- Brigita (Thoughtworks): LLM là công cụ trừu tượng hóa mới bao phủ toàn bộ stack
- Kent Beck (người tạo ra TDD): “Trong 52 năm sự nghiệp, hiện tại là lúc vui nhất”, và đánh giá LLM là đổi mới ở tầm Internet·smartphone
Những câu hỏi còn lại
- Vì sao CEO·nhà sáng lập lại hào hứng hơn cả kỹ sư?
- Tỷ lệ sử dụng công cụ AI thực tế tính theo tuần vào khoảng 50%, vẫn chưa phổ cập hoàn toàn
- Hiệu quả tiết kiệm thời gian: theo khảo sát DX, chỉ ở mức tiết kiệm 3~5 giờ mỗi tuần, khác khá xa với tuyên bố “năng suất gấp 10 lần” bị thổi phồng
- Vì sao ở cấp độ cá nhân hiệu quả lại lớn, nhưng ở cấp độ tổ chức thì kém rõ rệt hơn?
Kết luận
- LLM có thể tạo ra bước nhảy năng suất tương đương với chuyển dịch từ assembly → ngôn ngữ bậc cao
- Tuy nhiên, AI không mang tính tất định (deterministic), và hiệu quả khác biệt lớn theo từng đội nhóm·lĩnh vực
- Thông điệp: đây là thời điểm để thử nghiệm và học hỏi, cần nhấn mạnh rằng “nên tích cực thử những điều đã trở nên rẻ hơn và khả thi hơn”
Chưa có bình luận nào.