Customise Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorised as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyse the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customised advertisements based on the pages you visited previously and to analyse the effectiveness of the ad campaigns.

No cookies to display.

Стиль жизни

Угроза человечеству: вредоносное использование ИИ

За последние пять лет развитие технологий искусственного интеллекта достигло критического уровня. Сегодня ИИ уже не только лабораторный инструмент, а широко распространенная технология, которая влияет на всех нас. Группа ученых Стэнфордского университета (США), во главе с профессором Брауном, оценила прогресс искусственного интеллекта и связанные с этим риски.

Угроза человечеству: вредоносное использование ИИ

В своем отчете они представили возможные негативные последствия воздействия ИИ на жизнь людей. Ученые не рассматривают антиутопический сценарий, в котором сверхразумные машины захватят мир. Реальные опасности искусственного интеллекта намного более тонкие, но не менее взрывоопасные.

Выводы взяты из отчета группы экспертов по информатике, государственной политике, психологии, на основе мониторинга прогресса ИИ в период с 2016 по 2021 год. AI100 —- текущий проект, организованный Институтом человеко-ориентированного искусственного интеллекта Стэнфордского университета.

ИИ затрагивает жизнь людей ежедневно. Мы можем видеть реальный прогресс в обработке речи и языков, компьютерного зрения и распознавания образов из лаборатории — от помощи в выборе фильма до постановки медицинских диагнозов. В некоторых странах системы искусственного интеллекта диагностируют рак и другие заболевания с такой точностью, которая не уступает подготовленным специалистам.

искусственный интеллект в медицине

Методы исследования с использованием ИИ позволили по-новому взглянуть на геном человека и ускорили открытие новых фармацевтических препаратов, однако все это увеличивает риски и усиливает необходимость понимания его потенциальных негативных последствий.

Например, в области обработки естественного языка системы управляемые ИИ теперь могут не только распознавать слова, но и понимать, как они используются грамматически и изменяются в разных контекстах. Это оптимизировало поиск в интернете, используя интеллектуальные текстовые приложения чат-ботов и многое другое. Некоторые из этих систем способны даже создавать оригинальные тексты, которые трудно отличить от текстов, созданных человеком.

И хотя давно обещанные беспилотные автомобили еще не получили широкого распространения, но системы помощи водителю на основе искусственного интеллекта, такие как предупреждения о выезде с полосы движения и адаптивный круиз-контроль, являются стандартным оснащением большинства новых автомобилей.

искусственный интеллект и автомобиль

По словам Майкла Литтмана, профессора информатики Университета Брауна, некоторые недавние достижения в области ИИ могут быть не замечены сторонними наблюдателями, но на самом деле отражают значительный прогресс в базовых технологиях ИИ. Одним из ярких примеров является использование фоновых изображений в видеоконференциях, которые стали частью повседневной жизни многих людей во время пандемии COVID-19.

«Чтобы поместить вас перед выбранным бэкграундом, система должна отличать фигуру  от фона —- что нелегко сделать, просто используя набор пикселей», —- отметил Литтман.

Однако с этим успехом возникает новая необходимость понять и уменьшить риски и недостатки систем, управляемых ИИ, таких как алгоритмическая дискриминация или использование ИИ для преднамеренного обмана. Ученые-информатики должны работать с экспертами в области социальных наук и права, для гарантии, что ловушки ИИ будут сведены к минимуму.

В своем отчете ученые привели примеры угроз исходящих от ИИ, попавшего в плохие руки. Использование дипфейк-изображений и видео для распространения дезинформации и нанесения вреда репутации людей. Применение онлайн-ботов для манипуляции общественным мнением и автоматизированный компьютерный взлом.

Системы прогнозирования преступности, когда ИИ принимает решения, отрицательно сказываются на цветных сообществах. Также в здравоохранении, где расовые предубеждения в алгоритмах страхования могут повлиять на доступ людей к надлежащей медицинской помощи.

Отчет отвечает на вопросы, исследующие критические области развития ИИ. Они были разработаны постоянным комитетом AI100, состоящим из известной группы лидеров ИИ.

Среди них:

  • «Какие наиболее важные достижения в области искусственного интеллекта?»
  • «Какие самые вдохновляющие открытые и грандиозные задачи?»
  • Другие вопросы касаются основных рисков и опасностей ИИ, его воздействия на общество и будущего этой области.

За последние несколько лет было написано множество отчетов о влиянии ИИ, но отчеты AI100 уникальны тем, что написаны инсайдерами ИИ —- экспертами, которые создают алгоритмы ИИ и изучают их влияние на общество.

 

По материалам: Brown