1 điểm bởi GN⁺ 5 giờ trước | 2 bình luận | Chia sẻ qua WhatsApp
  • Không có thông tin nội dung bài viết có thể tóm tắt, nên không thể xác minh các sự kiện cốt lõi dựa trên phần thân bài
  • Chỉ có tên miền Reuters và tiêu đề trên Hacker News được cung cấp
  • Việc thu thập chuyển động chuột và thao tác gõ phím của nhân viên, cùng cụm từ sử dụng làm dữ liệu huấn luyện AI, chỉ có thể được xác nhận ở mức tiêu đề
  • Mốc thời gian triển khai là 2026 xuất hiện trong tiêu đề và URL, nhưng chưa thể xác nhận các điều kiện chi tiết và phạm vi áp dụng
  • Do không có phần thân bài, nên không có thông tin về nhóm nhân viên bị ảnh hưởng, cách thức thu thập hay cách vận hành cụ thể của mục đích sử dụng

Không có nội dung

2 bình luận

 
unsure4000 2 giờ trước

Người viết đoạn mã cho hệ thống theo dõi đó đã nghĩ gì vậy nhỉ

 
Ý kiến trên Hacker News
  • Cái này trông đúng là rác độc hại. Mong là nó sẽ bị hack trên diện rộng, và sẽ có ai đó làm ra biện pháp đối phó nhồi thật nhiều dữ liệu giả lố bịch vào cái đường ống thu thập tham lam của Meta
  • Tôi nghĩ chuyện này sẽ tạo ra hiệu ứng làm người ta co cụm rất lớn với nhân viên. Giờ ngay cả chuyện ngoài công việc hay tán gẫu cũng phải diễn ra trong tình trạng gần như không còn chút kỳ vọng riêng tư tối thiểu nào. Trước đây có thể cũng xem log được, nhưng việc chỉ nhìn lại một cách hạn chế sau khi có sự cố và giám sát thường trực trên diện rộng là hai vấn đề hoàn toàn khác nhau
    • Chẳng có tập đoàn nào hợp với chuyện này hơn. Mức độ mỉa mai lớn đến mức như thể máy đo còn muốn nổ tung
    • Từ trước đến nay tôi luôn mặc định rằng trên thiết bị của công ty, mọi thứ tôi làm đều có thể bị IT giám sát. Vì vậy tôi chưa bao giờ làm bất cứ gì công ty có thể không thích dù chỉ một chút trên phần cứng của công ty, mà dùng điện thoại thông minh và máy tính cá nhân của mình. Hồi trước ở một startup có xung đột giữa kỹ sư và ban lãnh đạo, các kỹ sư đã lập một nhóm riêng bằng tài khoản Signal cá nhân và nói chuyện với nhau không vấn đề gì
    • Thành thật mà nói, tôi không nghĩ Meta có quan tâm chuyện họ có làm nhân viên co cụm hay không. Có vẻ họ đã bước sang giai đoạn vắt thêm giá trị rồi, và cũng không còn là công ty thu hút được nhân tài hàng đầu nữa
    • Tôi hiểu lập luận rằng máy làm việc là tài sản của công ty nên không nên có kỳ vọng về quyền riêng tư. Tôi làm ở một công ty công nghệ tại Ấn Độ, và để giảm rủi ro phụ thuộc vào nhân sự chủ chốt, chúng tôi được khuyến khích tạo skills.md dựa trên đặc điểm của đồng nghiệp. Thực tế, mã của vài kỹ sư bị sa thải trong đợt tái cơ cấu hiện còn đang được bản sao AI của họ bảo trì. Có lẽ Meta cũng đang đi theo hướng đó
    • Từ khi bắt đầu đi làm, tôi đã nghĩ tài sản và thiết bị của công ty thì công ty có quyền giám sát, thậm chí keylog. Trên thực tế nhiều nơi còn không làm tới mức đó nên tôi còn thấy ngạc nhiên, nhưng tôi vẫn cho rằng họ có quyền đó. Tôi không thật sự hiểu vì sao mọi người lại kỳ vọng mình có quyền làm việc ngoài công việc trong giờ làm. Tất cả công ty tôi từng làm đều ghi rõ phạm vi cho phép trong hợp đồng và chính sách, và nếu muốn chê công ty thì hãy làm ngoài Slack hay Teams, ra ngoài công ty hoặc đứng cạnh máy nước thật mà nói, hoặc dùng số cá nhân
  • Có người đùa rằng AI thế hệ tiếp theo có lẽ sẽ cực kỳ giỏi lướt Hacker News
  • Tôi thật sự không hiểu sao cái này lại hợp pháp. Gần như có cảm giác ở Mỹ Facebook chẳng hề có yêu cầu tuân thủ thực chất nào. Ảnh chụp màn hình chuỗi thời gian của màn hình SRE chắc chắn sẽ chứa thông tin nhạy cảm như mật khẩu, khóa mã hóa, PII; vậy mà cái máy hút bụi dữ liệu này lại đi lưu những thứ đó thì thật vô lý. Tôi cũng thắc mắc không biết nhân viên có thể tự tắt nó đi hay không, và nếu ai đó lỡ để hiện khóa riêng ssh root của cả công ty trên màn hình mà không thể tắt đi thì sẽ ra sao. Bỏ qua chuyện hợp pháp hay không, chỉ riêng việc ai đó có quyền truy cập vào dữ liệu huấn luyện kiểu này cũng đồng nghĩa họ có quyền truy cập quá rộng trên toàn bộ hệ thống của công ty, và cuối cùng chỉ làm tăng rủi ro bị hack
    • Theo luật Mỹ, đặc biệt là trên thiết bị công ty, chuyện này với phần lớn doanh nghiệp thường là hợp pháp, và đáng buồn là cũng không hiếm. Về mặt tuân thủ, dữ liệu kiểu này thường được xử lý giống dữ liệu nhạy cảm khác, tức là chỉ cho một nhóm nhất định truy cập ảnh chụp màn hình. Tôi cũng không ủng hộ, nhưng nhiều công ty làm vậy không phải vì phớt lờ lo ngại bảo mật, mà ngược lại còn lấy danh nghĩa giải quyết vấn đề bảo mật. Tuy nhiên Meta có vẻ khác bản chất hơn, giống như họ muốn tạo mô hình để thay thế một phần nhân lực
    • Cuối cùng dữ liệu này rồi sẽ bị lộ ra trong một sự cố rò rỉ. Nó sẽ bị dùng bất lợi ở tòa, sẽ bị đem đi huấn luyện, và dù ai nói gì thì nếu AI có thể làm thay công việc, nó cuối cùng cũng sẽ bị dùng để sa thải. Mà ngay cả khi mọi chuyện đó xảy ra, Meta có lẽ vẫn sẽ né được trách nhiệm. Vì thế tôi càng thấy cần gấp việc ban hành luật để chặn chuyện này
    • Có cảm giác rằng các thí nghiệm tâm lý có liên quan dù chỉ chút ít tới web đã bắt đầu được coi là tự động hợp pháp sau khi A/B test được bình thường hóa. Vốn dĩ đây không phải kiểu chuyện nên bị che phủ bằng một mẫu đồng ý chung chung, mà là lĩnh vực cần sự tham gia tự nguyện và quy trình thẩm định độc lập. Dù con mèo đã ra khỏi cái túi rồi, điều đó cũng không có nghĩa là đây không phải vấn đề
  • Cái này thật sự điên rồ. Trước kia kỹ sư đúng là từng được đối xử như một nghề chuyên môn, còn giờ thì có vẻ công ty đã đi tới mức đòi spyware thay cho sự tin tưởng. Nó nghe chẳng khác gì đề xuất cài phần mềm giám sát lên laptop của hãng luật để phòng luật sư thông đồng với thẩm phán, hay đòi giám sát mọi hành động của bác sĩ 24/7. Thậm chí còn khiến người ta châm biếm rằng thà áp dụng giám sát 24/7 có thể kiểm toán công khai cho chính trị gia thì hơn
    • Chắc chắn các chính trị gia sẽ là những người đầu tiên tự tạo ngoại lệ cho mình, viện lý do như an ninh chẳng hạn. Đáng lẽ quyền lực càng lớn thì trách nhiệm giải trình và giám sát càng phải đi kèm, nhưng ngoài đời thật thì mọi thứ lại vận hành ngược hẳn như vậy
    • Trong các ví dụ bạn nêu, chỉ có chính trị gia là bên tôi trực tiếp trả tiền thuế cho và trên nguyên tắc là làm việc cho tôi. Luật sư và bác sĩ không phải nhân viên của tôi, cũng không phải người làm việc trên tài sản của tôi. Điều vụ này cho thấy đúng hơn là cái mặt nạ trong quan hệ chủ lao động - người lao động ở Mỹ gần như đã rơi xuống hoàn toàn, và khi cả bảo hiểm cũng bị trói vào việc làm mà vẫn đi tới mức này thì không còn mấy dư địa để phản kháng nữa
    • Nghe như cài kiểu giám sát đó lên laptop của văn phòng luật sư lại còn là ý hay
    • Tôi thật sự từng bị vài luật sư đâm sau lưng. Thực tế thì thứ đáng lo hơn email là các cuộc gọi điện thoại
  • Có người phản ứng rằng liệu nhân viên Meta có tin vào lời nói dữ liệu thu thập được sẽ không dùng cho đánh giá hiệu suất hay mục đích khác, mà chỉ dùng để huấn luyện mô hình hay không
    • Những nhân viên này vốn đã tự nguyện viết code cho một trong những mạng lưới giám sát lớn nhất hành tinh, nên có lẽ họ cũng sẵn sàng tin khá nhiều thứ
    • Nếu đã có sa thải suốt 4 năm liên tiếp và lại đang có không khí chuẩn bị cắt thêm 20%, thì có lẽ nhân viên Meta, dù khá ít, cũng sẽ cực kỳ nghi ngờ
    • Cuối cùng điều quan trọng vẫn là đền bù, và mức lương cao có lẽ sẽ kéo theo sự phục tùng
    • Độ đáng tin của câu đó bị chê là cũng ngang với "It's free and always will be" ngày xưa
  • Nghĩ đến việc mình ngay từ đầu đã quyết định không bắt đầu quy trình phỏng vấn với Meta thật đúng là may mắn. Hồi đó công ty đã trông khá nực cười rồi, còn bây giờ thì ở một đẳng cấp hoàn toàn khác
  • Người ta bắt đầu tưởng tượng công ty đối lập hoàn toàn với Meta sẽ trông như thế nào. Có lẽ là nhỏ và đặt quyền riêng tư làm trọng tâm, và nơi HN bị chặn trong công ty chăng; cũng tự hỏi liệu mình có đang bỏ sót điều gì không
  • Tôi hình dung hệ thống này rốt cuộc sẽ thu thập hàng loạt cảnh nhân viên Meta làm việc bằng AI. Rồi họ lại triển khai mô hình được huấn luyện từ đó, và lần sau lại tiếp tục thu thập nhân viên dùng AI giỏi trong việc dùng AI, rồi lặp lại vài lần như vậy, cuối cùng sẽ đi tới mức thu cả những lần người ta tuyệt vọng đập bàn phím loạn lên và hét lên vì sao mô hình chẳng làm được gì, đúng kiểu hài kịch đen
    • Có người đoán đây chỉ lấy cớ huấn luyện AI, còn thực chất là cái cớ để đẩy người ra đi bằng các đợt sa thải quy mô lớn mà bớt lộ liễu hơn và giảm cả trợ cấp thôi việc
    • Dữ liệu này cũng sẽ cho thấy ai không dùng AI đủ nhiều, nên cuối cùng những nhân viên đó có thể bị đưa vào PIP hoặc bị sa thải
    • Có góc nhìn cho rằng dù đây nghe như một kiểu lỗi hài hước, về mặt kỹ thuật lại có thể là điều tốt. Vì mô hình đã phần nào có được các kỹ năng mà con người từng giao cho AI làm, nên dù là theo kiểu dùng tác tử cấp dưới hay gộp luôn phần việc do AI thay thế vào bên trong mô hình, việc con người đã thay đổi phân phối công việc để gần với phân phối của AI hơn thực ra lại làm cho việc huấn luyện dễ hơn
    • Tin nóng đây: Meta đã tạo ra trình mô phỏng tối thượng "mèo ngồi lên bàn phím"
  • Câu chuyện này làm tôi nhớ đến Manna của Marshall Brain, và tôi thấy tác phẩm ở https://marshallbrain.com/manna1 khá ăn khớp với tình hình hiện tại