Altcraft Marketing
Этика в использовании нейросетей: как избежать проблем в работе
Дебаты вокруг нейросетей не утихают. Нас постоянно заваливают новыми программами и приложениями, основанными на ИИ. Тяжело угнаться за последними тенденциями, но ещё тяжелее понять, какие из них действительно стоит использовать.
Очевидно, что нейросети — это не волшебная таблетка. Они не могут сделать всё за человека. Здесь на первый план выходят этические вопросы. Невозможно получить от нейросетей то, что допустимо применять везде без правок. Всегда нужен симбиоз человеческой деятельности и технологии. ИИ лишь набрасывает идеи, но редактировать их, доводить до совершенства — забота людей.
Каждая модель нейросетей обучается на различных наборах данных, потому возникают вопросы о правах на эти данные. Чем больше сведений — тем совершеннее модель ИИ. С другой стороны, чем больше информации доступно — тем больше проблем с конфиденциальностью и вопросами интеллектуальной собственности. Есть ещё много открытых вопросов, в том числе и этических. О них пойдёт речь в статье.
Человек или машина?
Всё чаще в онлайн-бизнесе используется контент, сгенерированный нейросетями.
В любом случае нужно думать о том, что вы создаёте, и понимать, что по другую сторону машины находится человек. Так что наслаждайтесь творческим процессом: это не обезличенная деятельность.
Но каждый раз при использовании ИИ приходят на ум такие вопросы.
1. Кто является владельцем контента или кода, сгенерированного нейросетью?
Если вы с помощью ИИ пишете код или пост для блога, кто владеет авторским правом? Вы? Провайдер нейросети? Или, может, кто-нибудь ещё? Или, перефразируя, — кто владеет интеллектуальной собственностью и какой именно частью контента или кода?
2. Любые данные, которые вы загружаете в нейросеть, помогают вашим конкурентам
Если вы создаёте контент с помощью нейросети, будут ли загруженные вами данные использованы, чтобы тренировать другие модели ИИ?
Речь идёт, например, о ситуации с корпоративными данными, которые потенциально интересны конкурентам: закрытом исходном коде, который находится под NDA, или маркетинговых стратегиях, которые помогают вам обойти конкурентов.
3. Риск, что вас засудят за использование контента, сгенерированного ИИ
Бывали случаи, когда людям предъявляли иски за то, что они использовали контент, созданный нейросетью. Даже Google столкнулась с такой проблемой.
4. Влияние ИИ на SEO: помощь или вред?
Мы все сейчас переживаем — а вдруг в будущем созданный руками человека контент станет не нужен? Ведь нейросети могут генерировать оптимизированный контент для поисковиков. Но приведёт ли это к обесцениванию «человеческого»? Или всё же сгенерированный контент и созданный человеком будут органично дополнять друг друга?
5. Конфиденциальность и передача нейросети информации о компании
Инструментам ИИ необходимы данные, чтобы обучаться и работать. Какие именно данные им нужны? Как они будут использоваться? Какого рода данные требуются? Какими последствиями для конфиденциальности грозит передача данных искусственному интеллекту?
6. Корректность информации
Инструменты ИИ и чат-боты неидеальны. Они допускают ошибки. Что происходит, когда нейросеть генерирует неправильный контент? Кто несёт ответственность за неточность?
В создании итогового текста инструменты ИИ очень зависимы от того, на каких данных их обучали. Какие данные использовали для тренировки, такие и получатся на выходе. Поэтому они могут научиться предвзятости и стереотипному мышлению.
7. Сокращение рабочих мест из-за ИИ
Если можно создать в 10 раз больше контента, задействовав всего 10% ресурсов, вместо человека маркетологом теперь будет работать нейросеть? Что станет с человеческим процессом принятия решений? И что случится с правами человека?
8. Снижение стоимости контента
Если ИИ способен создавать неотличимый от человеческого контент, станет ли дешевле его стоимость? Возможно, люди не захотят платить за материал, если его можно бесплатно получить от нейросети?
Очевидно, что у генеративных нейросетей есть проблемы
Генеративный искусственный интеллект не всегда точен.
Другой вопрос этики — загружая в ИИ «чувствительную» информацию о компании, разработчики этого ИИ получат к ней доступ. И тогда они свободно воспользуются ей, как захотят — учитывайте, всё, что вы вводите, может быть общедоступным.
Поэтому не передавайте конфиденциальные данные без разрешения. Важно убедиться, что информация для обучения модели генеративного ИИ получена легально и по соглашению второй стороны, и что она не нарушает законы и нормативные акты. Большинство общедоступных служб генеративного ИИ (например, ChatGPT) не раскрывают, на каких наборах данных они обучаются. Так что мы не знаем, кто на самом деле владеет результатом.
Это также означает, что мы не можем проверить, до какой степени результат является предвзятым. Необъективность ИИ — это реальная проблема. Модели усваивают стереотипы из данных обучения. Они способны создавать крайне убедительное враньё. Никогда не доверяйте контенту, созданному ИИ, как единственному источнику информации, особенно если речь идёт о научных исследованиях.
Проблемы с ИИ несложно выявить. Контент, полностью созданный нейросетью, часто довольно посредственный:
- длинные и сложные абзацы, скопированные куски;
- неуклюжие формальные клише и длинные структуры в предложениях;
- перегруженность прилагательными;
- факты на основе чьего-то субъективного мнения.
Этический кодекс использования искусственного интеллекта
Рекомендуется использовать генеративный ИИ с лицензией, выданной компанией. Это важно с точки зрения ответственности и прав собственности. Но даже в этом случае не следует полностью копировать контент или код от нейросети. Всегда редактируйте, изменяйте и дополняйте материал, чтобы добиться уникальности контента.
- Защита данных — во главе угла. Не следует слепо доверять всему, что создала нейросеть, так как точность этих сведений довольно спорная, особенно по темам, которые быстро меняются.
- Никогда не копируйте целиком то, что получили на выходе от нейросети. Можно генерировать контент, но при этом всегда помнить о необходимости улучшать результат, чтобы получить действительно новую идею.
- ИИ прекрасно подходит для быстрого поверхностного исследования тем или проверки идей. Не используйте его для доказательства своих идей.
- Большинство информации — это «чувствительный» контент. Всё, что вы даёте нейросети на вводе, может стать доступным для конкурентов или действующих и потенциальных клиентов.
- Никогда не делитесь никакими личными данными с инструментами искусственного интеллекта вроде ChatGPT. Это также касается личных данных ваших клиентов — имён, email-адресов, номеров телефонов и всего остального, что относится к информации, идентифицирующей личность.
Использование нейросетей: польза и вред
Выбор за вами, каких этических принципов придерживаться и по каким стандартам работает ваша компания. Тем не менее, просить нейросеть генерировать контент с нуля — это не выход.
Найдите самостоятельно как можно больше информации по интересующей теме. Ознакомьтесь с видео, документами, блогами, черновиками и прочим и объедините их, чтобы создать прочную информационную базу. Затем напишите несколько разделов самостоятельно и попросите ИИ расширить остальной контент. Приведите весь текст в единый стиль и добавьте подходящие примеры и ключевые слова.
Примеры ниже помогут вам понять разницу между хорошим и плохим использованием ИИ.
Примеры неправильного использования инструментов нейросетей:
- использовать именные лицензии, чтобы создавать контент для маркетинговой рассылки: копировать, вставить и отправить без проверок;
- передавать финансовые данные компании алгоритмам ИИ;
- создать код нейросетью и использовать его в ваших продуктах без внесения каких-либо изменений.
Примеры эффективного использования инструментов ИИ:
- использовать корпоративную лицензию, чтобы создать контент для email рассылки, проверить и тщательно отредактировать его перед отправкой;
- попросить нейросеть улучшить ваши алгоритмы без передачи кода искусственному интеллекту;
- генерировать идеи новых маркетинговых кампаний и анализировать, как это может оказаться прибыльно для вашего бизнеса.
Всем известно, что ваш контент написала нейросеть
Оставим в стороне этические вопросы ИИ, проблемы с конфиденциальностью и кибербезопасностью. Самая большая сложность чрезмерного использования ИИ — на сегодняшний момент можно довольно легко определить текст, написанный нейросетью. Это видно и читателю, и компьютерным алгоритмам.
Почему это имеет значение?
Допустим, вы используете ИИ для автоматизации всех ваших холодных писем. Outlook от компании Microsoft и Gmail от Google — два крупнейших почтовых провайдера. Чтобы защитить своих клиентов от спама, они пометят как спам письма, сгенерированные нейросетью. Способность находить такие email будет совершенствоваться, и даже если ваше сгенерированное послание выглядит впечатляюще, оно бесполезно, если не попадёт в папку входящих писем потенциального клиента.
Казалось бы, это всего лишь письмо. Но всё более распространены фишинговые атаки с использованием ИИ. Крупные технологические гиганты стремятся защитить своих клиентов от таких атак, поэтому блокируют контент, который полностью создан нейросетью.
Люди перестанут проявлять интерес к вашим письмам, если им покажется, что вы пишете весь контент через нейросеть. Увеличение количества текстов за счёт их качества с большой долей вероятности приведёт к большим убыткам для вас и компании в целом. Но использовать ИИ и алгоритмы машинного обучения — не преступление.
Не стоит использовать ИИ, чтобы генерировать всё подряд. Используйте ИИ для вдохновения, планов, идей для заголовков, но не заменяйте им работу полностью.
Источник: Optimizely
Подписывайтесь на наш телеграм-канал. Там вы найдёте актуальные новости в области digital-маркетинга, полезные статьи и интересные исследования. Будьте в теме вместе с нами 🙂