Л’искусственный интеллект (ИИ) меняет нашу жизнь, и возможные риски, связанные с этим изменением, постоянно исследуются. В этих двух статьях мы оценим риски и возможности искусственного интеллекта в биологической и медицинской областях. Давайте начнем с риски.
Риски искусственного интеллекта: информация доступна каждому
По мнению большинства, тремя наиболее отличительными чертами биолога являются оптический микроскоп, белый халат и клеточные культуры. Однако значение искусственного интеллекта возрастает во множестве лабораторий по всему миру. Подобный алгоритм позволяет легко предсказать структуру белка за очень короткое время, а многие другие вычислительные подходы сокращают время разработки новых лекарств. Но что, если бы кто-то использовал этот инструмент для созданиябиологическое оружие?
В последнее время многие помнят попытки убить тысячи людей с помощью отравляющих газов или ботулотоксина, осуществленные фундаменталистской организацией. Аму Шынрикё. Атаки, вероятно, провалились из-за отсутствия знаний. Однако, или любой биоинформатический инструмент был бы полезен, поскольку он предоставил бы любому, кто имеет базовое понимание биологии, всю информацию, необходимую для завершения своей идеи. Даже если это соображение может показаться немного утопическим, . они сообщили о Простота доступа к этому типу информация как один из основные риски искусственного интеллекта.
Риски искусственного интеллекта: биологическое оружие
К рискам искусственного интеллекта можно отнести синтетические формы жизни (и возможное создание новых патогенов). В 2020 году группа учёных разработала так называемый, полностью программируемый организм, созданный с помощью искусственного интеллекта. Год спустя стало известно, что «вещь» начала самовоспроизводиться, отбрасывая клетки из своего тела.
В 2023 году Всемирный саммит по безопасности ИИ тщательно проанализировал все возможные риски ИИ и сообщил, что такие инструменты, как ChatGPT, могут помочь биотеррористам создавать биологическое оружие, скрывая истинную смертоносную природу вируса. В конце концов, Дарио Амодейгенеральный директор Анторпическийстартап, конкурирующий с ChatGPT и финансируемый Google на 300 миллионов долларов, предупредил нас, что искусственный интеллект он может стать действенным инструментом для создания биологического оружия в ближайшие годы..
Риски искусственного интеллекта в медицинской сфере
Мы также находим риски искусственного интеллекта в сектор здравоохранения. Хотя это прекрасная возможность, ее нужно использовать осторожно. Во-первых, у пожилых людей может быть трудности с использованием интерактивных чат-ботов или приложения на базе искусственного интеллекта. Кроме того, как регулирующим органам, так и компаниям необходимо учитывать возможные проблемы реализации в более бедных странах, например, высокие затраты на внедрение или ограниченный доступ к онлайн-услугам.
Наконец, некоторые алгоритмы на основе ИИ не лишены ошибки. Компаниям необходимо улучшить эту производительность, и при использовании для диагностических тестов, таких как анализ изображений, по-прежнему необходим человеческий контроль.
Заключение
Как показано, риски искусственного интеллекта в биологической и медицинской областях (к сожалению) являются реальностью. Однако полезно иметь в виду две вещи. Искусственный интеллект — это технология, и как таковой он не создает и не решает проблем, а результаты зависят от людей, которые его используют. Подобно тому, как мальчик, который очень хорошо играет в военные видеоигры, не является опытным солдатом, искусственный интеллект может предложить террористам очень полезную информацию, но им все равно нужно немного опыта, чтобы знать, как ее использовать.
Источники
Авторы изображений
- Изображение на обложке:
- Рисунок 1: