- Tangled hỗ trợ sẵn tính năng vouching, cho phép người dùng bảo chứng hoặc lên án những người dùng khác mà họ đã tương tác, và dùng đây như một tín hiệu tin cậy để đối phó với sự gia tăng của các bài gửi dựa trên LLM
- Người dùng được bảo chứng sẽ hiển thị biểu tượng khiên màu xanh lá cạnh ảnh đại diện, còn người dùng bị lên án sẽ hiển thị biểu tượng khiên màu đỏ, trở thành manh mối để quyết định có nên tương tác hay không
- Khi các công cụ dựa trên LLM làm giảm rào cản gửi mã vào dự án, số lượng các bài gửi kiểu “thung lũng kỳ lạ” trông có vẻ đúng nhưng sai lệch một cách tinh vi có thể tăng lên, và maintainer có thể bảo chứng hoặc lên án những người đóng góp lạm dụng các công cụ này để tạo thêm gánh nặng
- Việc bảo chứng/lên án bao gồm trường lý do dạng văn bản và áp dụng cơ chế suy giảm, nên người dùng chỉ có thể thấy những đánh giá do chính họ và vòng kết nối của họ đưa ra
- Khi bảo chứng hoặc lên án trên Tangled, một bản ghi công khai sẽ được tạo trên PDS của người dùng, và appview sẽ tổng hợp dữ liệu này để hiển thị “mũ” bảo chứng phía trên hồ sơ trong issue, bình luận, pull request và bình luận pull request
Tín hiệu tin cậy của Tangled
- Tangled hỗ trợ sẵn tính năng vouching, cho phép người dùng bảo chứng hoặc lên án những người dùng khác mà họ đã tương tác
- Người dùng được bảo chứng sẽ hiển thị biểu tượng khiên màu xanh lá cạnh ảnh đại diện, còn người dùng bị lên án sẽ hiển thị biểu tượng khiên màu đỏ
- Người dùng cũng có thể xem các đánh giá bảo chứng/lên án do vòng kết nối của mình đưa ra và dùng chúng như tín hiệu để quyết định có nên tương tác hay không
- Khi các công cụ dựa trên LLM làm giảm rào cản gửi mã vào dự án, số lượng các bài gửi kiểu “thung lũng kỳ lạ” trông có vẻ đúng nhưng sai lệch một cách tinh vi có thể tăng lên
- Các maintainer trong mạng Tangled có thể bảo chứng hoặc lên án những người đóng góp lạm dụng các công cụ này để tạo thêm gánh nặng bảo trì
Cách hoạt động và các ràng buộc thiết kế
-
Thiết kế thận trọng
- Việc bảo chứng/lên án bao gồm trường lý do dạng văn bản
- Cơ chế suy giảm (attenuation) được áp dụng, nên người dùng chỉ có thể thấy những đánh giá do chính họ và vòng kết nối của họ đưa ra
- Hiện tại, người dùng bị lên án không bị chặn khỏi dự án; chỉ có một nhãn cảnh báo màu đỏ xuất hiện ở một số phần của UI
-
Tính năng dự kiến bổ sung
- Theo thời gian, maintainer và người đóng góp có thể rời dự án, vì vậy bảo chứng sẽ yếu dần theo thời gian và cần được làm mới định kỳ
- Có thể sẽ bổ sung tính năng theo dõi bằng chứng, trong đó nếu bảo chứng một người dùng ngay sau khi hợp nhất PR thì PR đó sẽ được thêm làm bằng chứng cho bản ghi bảo chứng
-
Bản ghi công khai và vị trí hiển thị
- Khi bảo chứng hoặc lên án ai đó trên Tangled, một bản ghi công khai sẽ được tạo trên PDS của người dùng
- Bản ghi này bao gồm đó là bảo chứng hay lên án, cùng với lý do tùy chọn
- Tangled appview sẽ tổng hợp dữ liệu bảo chứng trên toàn mạng và hiển thị “mũ” bảo chứng phía trên hồ sơ tại các điểm tương tác
- Các vị trí hiển thị gồm issue, bình luận issue, pull request và bình luận pull request
-
Khả năng hiển thị dựa trên vòng kết nối
- “Mũ” chỉ hiển thị phía trên một người dùng khi đó là người mà chính bạn đã bảo chứng/lên án, hoặc là người được một người mà bạn đã bảo chứng tiếp tục bảo chứng/lên án
- Nhấp vào “mũ” để xem ai trong vòng kết nối của bạn đã bảo chứng hoặc lên án người dùng đó
- Hiện tại, kết quả của việc lên án chỉ dừng ở việc hiển thị “mũ”; trong tương lai kết quả có thể thay đổi, nhưng lúc này nó được dùng như một tín hiệu hỗ trợ phán đoán
1 bình luận
Ý kiến trên Lobste.rs
Cách tốt hơn và đơn giản hơn là xây dựng chính sách chống LLM mạnh tay và thực thi nó cho đúng. Cũng nên rời khỏi các nền tảng khuyến khích dùng LLM hoặc có xu hướng thân AI như GitHub
Không hiệu quả 100%, nhưng các trường hợp cố che giấu việc dùng LLM đa phần rồi cũng lộ ra, lúc đó cấm ngay là được. Nếu doanh nghiệp đẩy spam bằng LLM vào thì hãy chặn cả công ty, còn nếu là forge tự host thì có thể chặn mạng của công ty đó ngay từ firewall
Những hệ thống nửa vời kiểu proof-of-work gây bất lợi cho người đóng góp lần đầu và người ghé qua đóng góp, còn bảo chứng niềm tin thì rốt cuộc cũng là một dạng proof-of-work. Đừng làm phiền người yếu thế, đánh nhanh vào kẻ xấu sẽ hiệu quả hơn
Ngay trong phần trích dẫn cũng nói là đang bảo chứng hoặc chỉ trích “những người đóng góp lạm dụng công cụ này để tạo thêm gánh nặng bảo trì”
Bắt mọi người chấp nhận lệnh cấm ở cấp nền tảng chỉ vì ai đó mở cuộc săn phù thủy LLM sẽ phản tác dụng. Ở đây hay trên HN cũng thỉnh thoảng có những nghi ngờ sai rằng bài viết do LLM tạo ra, nếu còn phải xử lý chuyện đó trong PR thì thật sự rất mệt
Hệ thống này nhằm né những người đóng góp tạo gánh nặng bảo trì bằng cách lạm dụng công cụ, và cũng có thể áp dụng với những người tạo gánh nặng bảo trì theo kiểu cũ. Nó trông giống một mô hình quyền commit được phát triển thêm
Nếu có chính sách chống LLM thì có thể dùng cái này để thực thi, còn nếu có chính sách cấm quấy rối thì cũng có thể thực thi bằng cách này
Nếu không gắn trực tiếp với việc có được gửi PR hay không, thì cùng lắm thứ này là vô dụng, còn tệ hơn thì sẽ trở thành một hệ thống điều phối độc hại. Sẽ có người đi chỉ trích hàng loạt các tài khoản từng dùng LLM, rồi sau đó có thể xuất hiện cả những đợt tấn công theo bầy đàn vì các lý do khác
Web of trust tự nó rất hay, nhưng dự án này chỉ xử lý khía cạnh kỹ thuật chứ không đụng tới khía cạnh xã hội. Nếu làm một hệ thống điều phối mà không có một phần lớn nói rõ “làm sao mở rộng mà không bị lạm dụng” được phản ánh vào kết quả của hệ thống, thì sớm muộn gì cũng sẽ có chuyện bất ngờ xảy ra
Đây là một thử nghiệm khá thú vị khi gắn động lực xã hội vào trước để giải quyết vấn đề xã hội, và thiết kế cũng có vẻ thông minh
Nếu “người dùng bị chỉ trích không phải chịu hậu quả gì cả. Họ chỉ có thêm cái mũ”, thì rốt cuộc nó có ý nghĩa gì? Cuối cùng thì vẫn phải xử lý PR như cũ
Ví dụ như chặn hoặc hạ ưu tiên
Có cơ chế nào ngăn chuyện ai đó tạo ra nhiều domain, rồi trong mỗi domain tạo cả triệu người dùng để họ bảo chứng lẫn nhau không? Như vậy những người khác có thể mua từ tôi một gói danh tiếng rất khó tách bạch
Tôi vẫn thấy mô hình cây lời mời của lobste.rs tốt hơn. Một khi ai đó bắt đầu lạm dụng thì rất dễ cắt cả cây con bên dưới, và nó phát triển chậm hơn, mà điều đó lại là ưu điểm
Trong human.json, có lẽ sẽ chẳng ai bảo chứng cho các nút trong mạng lưới kiểu đó, hoặc các liên kết đi vào quá ít nên khoảng cách sẽ rất lớn. Điều đó không có nghĩa là không thể đưa site vào mạng lưới, nhưng bảo chứng và bất tín có thể nhanh chóng đẩy nó ra ngoài. Thực tế vận hành ra sao thì vẫn còn phải xem
Sẽ hay nếu có một lớp UI giống petnames để có thể xem “X, Y, Z đã bảo chứng” theo dạng inline hoặc khi rê chuột
Tôi tò mò không biết cách này có thể ngăn nuôi danh tiếng đến mức nào
Dù sao thì mọi dữ liệu đều công khai, nên ai đó hoàn toàn có thể tạo tangled2.org để dựng đồ thị toàn cục, nhưng trong UI thì chủ ý thiết kế để bảo chứng suy yếu dần khi đi ra ngoài vòng tròn của chính mình
Ý tưởng thì hay, nhưng tôi tự hỏi sao không giao tiếp tự nhiên thôi. Mọi kiểu giao tiếp vụn vặt ở đây đều quá chỉn chu và nhất quán
Để lại lỗi chính tả trong những gì mình gõ ra đôi khi lại tạo nên dấu vân tay rất con người
Tôi thích ý tưởng này. Nó làm tôi nhớ tới tree of trust mà chính lobste.rs đang dùng
Cảm giác như chúng ta đang nhanh chóng tái hiện lại nghiên cứu trust metric từng diễn ra gần như cùng thời với sự ra đời của mã nguồn mở. Tôi tò mò @raph sẽ nhìn việc này thế nào
Nó không hoàn hảo, nhưng chắc chắn vẫn tốt hơn rất nhiều so với không có gì
Hình như đã có khoảng nửa tá thứ như thế này rồi, sao không tham gia cái đang tồn tại mà lại làm thêm một cái nữa?