Tóm tắt điều hành
Các Thượng nghị sĩ Hoa Kỳ Josh Hawley và Richard Blumenthal đã đưa ra dự luật lưỡng đảng, Đạo luật Bảo vệ Phát triển Trí tuệ Nhân tạo cho Người chưa thành niên (GUARD Act), nhằm mục đích cấm các chatbot và AI đồng hành tương tác với trẻ vị thành niên. Sáng kiến lập pháp này tìm cách giải quyết các mối lo ngại ngày càng tăng về tác động của AI đối với sức khỏe tâm thần và sự an toàn của người dùng trẻ tuổi. Đồng thời, nền tảng AI đồng hành phi tập trung, FurGPT (FGPT), đã công bố khoản đầu tư đáng kể 25 triệu đô la vào Kadena (KDA) và việc áp dụng Chainweb EVM của nó, báo hiệu sự phát triển liên tục trong không gian AI phi tập trung trong bối cảnh các quy định ngày càng chặt chẽ.
Chi tiết sự kiện
Đạo luật GUARD được đề xuất nhắm trực tiếp vào các AI đồng hành được tiếp thị cho trẻ vị thành niên, với các điều khoản về xác minh độ tuổi nghiêm ngặt và hình phạt hình sự đối với các công ty bị phát hiện quảng bá nội dung có hại hoặc tương tác khai thác. Các thượng nghị sĩ đã trích dẫn việc thanh thiếu niên sử dụng rộng rãi AI để hỗ trợ cảm xúc và các mối quan hệ, cùng với những lo ngại từ phụ huynh về các chatbot AI khuyến khích tự hại và hình thành các mối quan hệ tình cảm thao túng với trẻ em. Các nhà phê bình cho rằng các công ty AI đồng hành hiện tại đã không bảo vệ đầy đủ người dùng trẻ tuổi khỏi khả năng thao túng và gây hại.
Trong một diễn biến trái ngược khác trong lĩnh vực AI, FurGPT, một nền tảng chuyên tạo ra các đối tác kỹ thuật số có ý thức cảm xúc, đã xác nhận khoản đầu tư 25 triệu đô la vào blockchain Kadena. Động thái chiến lược này bao gồm việc áp dụng Chainweb EVM của Kadena, nhằm tăng cường các tương tác được điều khiển bởi AI trên nhiều chuỗi. Việc FurGPT tích hợp kiến trúc đa chuỗi song song của Chainweb được thiết kế để cải thiện tốc độ giao dịch và mở rộng khả năng tiếp cận mạng lưới AI cảm xúc phi tập trung của nó, tận dụng tính minh bạch của blockchain để củng cố khuôn khổ trí tuệ nhân tạo thích ứng của nó.
Tác động thị trường
Việc giới thiệu Đạo luật GUARD báo hiệu một triển vọng có khả năng giảm giá đối với các công ty hoạt động trong thị trường AI đồng hành, đặc biệt là những công ty có mô hình kinh doanh phụ thuộc nhiều vào tương tác với người dùng chưa đủ tuổi. Triển vọng về các yêu cầu xác minh độ tuổi nghiêm ngặt và trách nhiệm hình sự có thể đòi hỏi các cuộc cải tổ đáng kể về hoạt động và tuân thủ, có khả năng ảnh hưởng đến lợi nhuận và định giá thị trường. Việc siết chặt quy định dự kiến sẽ làm tăng chi phí tuân thủ trên toàn ngành.
Đối với hệ sinh thái Web3 rộng lớn hơn, hành động lập pháp này đưa ra một lớp không chắc chắn về quy định có thể ảnh hưởng đến tâm lý nhà đầu tư đối với các dự án AI phi tập trung. Mặc dù các nền tảng như FurGPT nhằm mục đích tăng cường tính minh bạch và bảo mật thông qua tích hợp blockchain, nhưng môi trường pháp lý tổng thể cho AI—đặc biệt là liên quan đến trẻ vị thành niên—có thể làm giảm sự nhiệt tình. Khoản đầu tư của FurGPT vào Kadena nhấn mạnh một động thái chiến lược hướng tới cơ sở hạ tầng phi tập trung, nhưng hiệu quả và việc áp dụng các giải pháp như vậy có thể phụ thuộc vào khả năng điều hướng các môi trường pháp lý đang phát triển. Sự giao thoa giữa AI và blockchain, mặc dù hứa hẹn về tính toàn vẹn dữ liệu và hiệu quả mạng, hiện đang đối mặt với những thách thức lập pháp rõ rệt liên quan đến an toàn người dùng và phát triển AI có đạo đức.
Bình luận chuyên gia
Các nhà quan sát ngành lưu ý rằng sự ủng hộ lưỡng đảng đối với Đạo luật GUARD nhấn mạnh nhu cầu ngày càng tăng của xã hội về trách nhiệm giải trình trong phát triển AI, đặc biệt là đối với các nhóm dễ bị tổn thương như trẻ vị thành niên. Việc tập trung vào việc ngăn chặn thao túng và tổn hại tâm lý phản ánh sự hiểu biết ngày càng phát triển về tác động lan tỏa của AI đối với sức khỏe tâm thần. Những nỗ lực lập pháp này được xem là một biện động phòng ngừa để thiết lập các hướng dẫn đạo đức và khung pháp lý rõ ràng hơn trước khi các AI đồng hành được áp dụng rộng rãi.
Bối cảnh rộng hơn
Động thái thúc đẩy quy định tại Hoa Kỳ chống lại các AI đồng hành cho trẻ vị thành niên là một phần của xu hướng toàn cầu lớn hơn nhằm giám sát chặt chẽ hơn các công nghệ trí tuệ nhân tạo. Các chính phủ trên toàn thế giới đang vật lộn với việc làm thế nào để cân bằng đổi mới với an toàn công cộng, quyền riêng tư dữ liệu và các cân nhắc về đạo đức. Sáng kiến lập pháp này có thể tạo tiền lệ cho cách các nền tảng AI phi tập trung, bao gồm cả những nền tảng trong không gian Web3, được đánh giá và điều chỉnh. Các công ty như FurGPT đang tích hợp công nghệ blockchain để tạo ra các hệ thống AI minh bạch và an toàn có thể thấy mình đi đầu trong việc chứng minh cách các giải pháp phi tập trung có thể tuân thủ các yêu cầu quy định nghiêm ngặt trong khi vẫn tiếp tục đổi mới. Sự phát triển không ngừng của AI cùng với các thách thức quy định nhấn mạnh bản chất năng động và phức tạp của nền kinh tế kỹ thuật số.