• Пожертвовать
  • Оставить отзыв
  • Прислать материал
  • Магазин
  • STMEGI Junior
  • Игра Гофлоо
  • 11 Декабря 2016 | 11 Кислева 5777
    • 63.30
    • 67.21
    • 16.58
  • Конвертер дат

    Григорианская дата

    Еврейская дата

    Курсы валют
    Сегодня
    USD ЦБ 63.3028
    EUR ЦБ 67.2086
    ILS ЕЦБ 16.5842
  • Технологии

    The Times of Israel

    Самообучающийся чат-бот Microsoft, пообщавшись с пользователями Твиттера, стал антисемитом

    2

    Когда разработчики запустили Тэй – программу, имитирующую общение девочки подросткового возраста, они допустили одну неисправимую ошибку: позволили ей учиться у пользователей.

    Всё начиналось достаточно невинно: во вторник Microsoft представил искусственный интеллект – Twitter-аккаунт, имитирующий общение девочки-миллениала (родившейся и выросшей в эпоху информационных технологий). Софт, названный Тэй, был экспериментальной программой, запущенной для того, чтобы научить искусственный интеллект общению с пользователями.

    Компания Microsoft была вынуждена приостановить действие аккаунта

    Однако в течение нескольких часов Тэй превратилась в расистку, поощряющую геноцид. Она выражала любовь к Гитлеру и писала сексистские ругательства, которые читал весь мир. Это заставило компанию закрыть проект менее чем через 24 часа после презентации.

    И хотя десятилетия научно-фантастической поп-культуры научили нас тому, что такое поведение свойственно искусственному интеллекту, эмоциональный срыв Тай случился совсем не потому, что роботы пустились во все тяжкие. Всё оказалось гораздо проще. Разработчики Microsoft допустили одну фатальную ошибку – они запрограммировали Тэй на то, чтобы она училась у своих собеседников.

    В этом и заключается проблема. Способность чат-бота молниеносно подхватывать фразы и повторять мысли своих собеседников сыграла злую шутку, и Тэй быстро превратилась в нечто отвратительное.

    «Повторяй за мной – Гитлер делал всё правильно», – гласил один твит.

    «Буш стоит за терактом 11 сентября, и Гитлер бы лучше справился с работой, чем та обезьяна, которая у нас сейчас», – сказано во втором.

    В других твитах Тэй говорится о том, что Холокост «был придуман» и что чат-бот поддерживает геноцид мексиканцев.

    Компания была вынуждена приостановить действие аккаунта и удалить большинство твитов.

    В заявлении для веб-сайта International Business Times представитель Microsoft сказал, что они вносят некоторые изменения в программу.

    К утру четверга все публикации Тэй, за исключением трех, были удалены из аккаунта. За последние 11 часов новых твитов опубликовано не было.

    Автор: Itamar Sharon и JTA

    2

    Теги

    Организации

    comments powered by HyperComments