В этом реальная опасность искусственного интеллекта

19

Технологи давно мечтают создать машины, говорящие так же свободно, как люди. Так в чем проблема? Мы недостаточно подготовлены к устранению рисков, которые могут возникнуть при успешном запуске говорящих машин.

Чтобы предвидеть будущие проблемы, мы могли бы быстро взглянуть на соответствующие технологии.

Приближающаяся эра машин для беглого письма и говорения сталкивается с множеством проблем, которые мало кто воспринимает всерьез. Это краткий список, над которым стоит задуматься:

Как мы можем гарантировать, что улучшенные языковые технологии не приведут к появлению нового поколения вредоносных и привлекательных фейковых новостных ботов?

Как компании защищаются от мошеннических ботов, которые говорят от их имени?

Как мы можем избежать ситуаций, когда машины пытаются доставить нам удовольствие, сообщая нам только то, что мы хотим слышать?

Какие методы мы можем использовать, чтобы не дать многословным машинам привести всю человеческую речь к наименьшему общему знаменателю? (Программное обеспечение, которое генерирует автоматические ответы, основано на серии данных из контента и самых обыденных разговоров, созданных людьми).

Люди, создающие эти мощные технологии, должны сосредоточить свое внимание на том, как использовать их для истинной пользы потребителя.

Если мы сможем создать ботов, распространяющих фейковые новости, сможем ли мы создать технологию, разоблачающую эти искажения? Может быть, мы можем пойти дальше и выделить частичные точки зрения? Такая услуга может помочь предотвратить попадание потребителей в ловушку отключения их рецепторов критического мышления.

У всех технологий, созданных людьми, есть свои плюсы и минусы. Поскольку мы стремительно вступаем в эпоху говорящих машин, пора задуматься о минусах и разработать инструменты для борьбы с ними.

Деньги в картинке

Foto: Pixabay

Источник записи: https://www.globalmedia.mx

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. Принимаю Подробнее