
02.07.2025
Дата публикации
Организация Creative Commons, известная своими свободными лицензиями, представила новый проект — CC signals. Это набор юридических и технических инструментов, позволяющих владельцам данных указывать, можно ли использовать их контент для обучения искусственного интеллекта и на каких условиях.
Проект нацелен на решение растущей проблемы: бесконтрольное извлечение данных для ИИ может привести к закрытию открытых ресурсов, появлению платного доступа к сайтам и снижению прозрачности в интернете. CC signals предлагает альтернативу — не запреты, а понятные сигналы.
Сигналы могут быть как юридически обязательными, так и рекомендательными, но всегда с упором на этическую сторону вопроса. Это гармонирует с философией Creative Commons: открытость, взаимность и уважение к авторству даже в эпоху машинного обучения.
Владельцы массивов данных (датасетов) смогут ставить условия: например, обязательство указывать источник, делиться результатами, открывать код ИИ-модели или не использовать данные в коммерческих целях. Всё это оформляется в машиночитаемом и человекочитаемом виде.
Проект особенно актуален на фоне того, как крупные платформы пересматривают свои политики. Reddit ограничивает доступ ботам через robots.txt, Cloudflare разрабатывает платные схемы, а разработчики создают инструменты, «тратящие» ресурсы неэтичных ИИ-скрейперов.
CC signals предлагает более устойчивую модель: вместо конфронтации — договорённость. Делая попытку создать новый общественный контракт между теми, кто делится знаниями, и теми, кто использует их для обучения ИИ.
Проект пока на ранней стадии. Первые черновики опубликованы на сайте Creative Commons и GitHub. Организация собирает обратную связь и планирует альфа-запуск в ноябре 2025 года.
Также запланированы открытые обсуждения, где разработчики, юристы и представители платформ смогут задать вопросы и внести предложения.
В условиях, когда данные становятся «новой нефтью», важно не только защищать ресурсы, но и строить доверие. CC signals — это попытка сохранить открытость без ущерба для технического прогресса и вашей приватности.
Проект нацелен на решение растущей проблемы: бесконтрольное извлечение данных для ИИ может привести к закрытию открытых ресурсов, появлению платного доступа к сайтам и снижению прозрачности в интернете. CC signals предлагает альтернативу — не запреты, а понятные сигналы.
Сигналы могут быть как юридически обязательными, так и рекомендательными, но всегда с упором на этическую сторону вопроса. Это гармонирует с философией Creative Commons: открытость, взаимность и уважение к авторству даже в эпоху машинного обучения.
Владельцы массивов данных (датасетов) смогут ставить условия: например, обязательство указывать источник, делиться результатами, открывать код ИИ-модели или не использовать данные в коммерческих целях. Всё это оформляется в машиночитаемом и человекочитаемом виде.
Проект особенно актуален на фоне того, как крупные платформы пересматривают свои политики. Reddit ограничивает доступ ботам через robots.txt, Cloudflare разрабатывает платные схемы, а разработчики создают инструменты, «тратящие» ресурсы неэтичных ИИ-скрейперов.
CC signals предлагает более устойчивую модель: вместо конфронтации — договорённость. Делая попытку создать новый общественный контракт между теми, кто делится знаниями, и теми, кто использует их для обучения ИИ.
Проект пока на ранней стадии. Первые черновики опубликованы на сайте Creative Commons и GitHub. Организация собирает обратную связь и планирует альфа-запуск в ноябре 2025 года.
Также запланированы открытые обсуждения, где разработчики, юристы и представители платформ смогут задать вопросы и внести предложения.
В условиях, когда данные становятся «новой нефтью», важно не только защищать ресурсы, но и строить доверие. CC signals — это попытка сохранить открытость без ущерба для технического прогресса и вашей приватности.