Preview

Новые этические вызовы медицины будущего: от ИИ до редактирования генов. Что нужно знать практикующему врачу?

Быстрое развитие технологий, глобализация науки и усложнение социально-технических систем показывают, что старые этические правила научных исследований уже не работают  [1, 2]. В этой статье анализируется, как должна измениться научная этика в ближайшие годы. 

Мы рассматриваем основные «двигатели» изменений: роль больших данных и искусственного интеллекта (ИИ), объединение нано-, био-, информационных, когнитивных и социальных технологий (NBICS), движение к «открытой науке» и рост глобального неравенства. Автор предлагает новую концепцию — «этику сопряжения». Её главная идея в том, что технологические, биологические, социальные и экологические системы тесно связаны, и оценивать нужно не каждый эксперимент по отдельности, а их общее влияние на общество и природу [3, 4]. Особое внимание уделяется риску «биотехнологического фашизма» — ситуации, когда передовые биотехнологии (например, редактирование генов или нейроинтерфейсы) используются для тотального контроля над людьми [5, 6]. В статье показаны конкретные риски: нарушение права на личную жизнь, рост неравенства из-за доступа к «улучшающим» технологиям и обесценивание человеческой жизни. Для решения этих проблем предлагаются конкретные шаги: обязательная этическая экспертиза проектов, создание междисциплинарных комитетов, цифровой контроль за исследованиями, изменения в обучении учёных и укрепление международных правил [7, 8]. Автор делает вывод, что в ближайшие 10 лет научная этика должна кардинально измениться, чтобы сохранить доверие общества к науке.

Введение
Современный этап научно-технологического прогресса, который часто называют Четвёртой промышленной революцией, полон противоречий [1]. С одной стороны, у учёных есть мощные инструменты для решения глобальных проблем — от редактирования генов до моделирования климата. С другой стороны, сами исследования и их возможные последствия становятся настолько сложными, что существующие этические нормы и законы за ними не успевают [2]. Этические правила, разработанные в XX веке для защиты прав пациентов и добровольцев в исследованиях, сегодня часто оказываются недостаточными [4, 9]. Это проявляется в нескольких проблемах: учёные работают уже не с отдельными людьми, а с целыми системами (например, с социальными сетями или экосистемами); границы лаборатории размываются, и последствия экспериментов могут быть непредсказуемыми; наконец, появляются совершенно новые дилеммы, для которых нет готовых ответов [3, 10].

Цель и методология
Цель этой статьи — проанализировать основные вызовы и предложить новую этическую модель для науки ближайшего будущего. Главная мысль: этика должна стать не реактивной (когда нарушения исправляют после того, как они произошли), а проактивной — предвидеть риски и встраивать этические принципы в сам процесс исследования [3, 8]. Методология основана на анализе современных тенденций и формулировке принципов новой модели — «этики сопряжения», которая учитывает взаимосвязь всех элементов сложных систем.

Ключевые драйверы изменений и формирующиеся вызовы

1. Данноцентричная наука и искусственный интеллект.
Сегодня многие открытия делаются не через гипотезы и эксперименты, а через анализ огромных массивов данных с помощью ИИ [11]. Это создаёт новые этические проблемы:

  • «Чёрный ящик» ИИ: сложные алгоритмы иногда выдают результат, который даже их создатели не могут полностью объяснить [12]. В медицине это опасно: как доверять диагнозу ИИ, если непонятно, как он его поставил?

  • Несправедливость алгоритмов: если ИИ обучается на данных, в которых есть скрытые предубеждения (например, исторически недостаточно данных о здоровье женщин или меньшинств), он будет принимать несправедливые решения [13].

  • Кризис согласия: классическое правило «информированного согласия» пациента на использование его данных работает плохо, когда данные собираются повсеместно и используются много раз в разных целях.

2. Конвергенция NBICS-технологий и проблема гибридности.
Главный вызов сегодня — это объединение разных технологий (нано-, био-, IT, когнитивных и социальных), что создаёт гибридные объекты [14]. Например, имплант для мозга, который управляется ИИ и влияет на социальное поведение. Старые этические рамки (только для медицины или только для IT) здесь не работают, потому что объект одновременно и биологический, и цифровой, и социальный [4].

3. Биотехнологический фашизм как системный риск.
Особенно опасным последствием конвергенции технологий является риск биотехнологического фашизма. Под этим термином понимается использование биотехнологий государством или корпорациями для тотального контроля над людьми и обществом [5, 6]. Это не фантастика, а развитие старых идей евгеники («улучшения» человеческой породы), но с новыми инструментами [4, 15]. Конкретные риски включают:

  • Нарушение автономии: нейроинтерфейсы или повсеместный геномный надзор могут позволить читать мысли человека или контролировать его здоровье без его согласия [5, 16].

  • Генетическое неравенство: дорогие технологии «улучшения» (например, редактирование генов для повышения интеллекта) будут доступны только богатым, что может создать новый вид социального неравенства — биологическую кастовость [6, 17].

  • Дегуманизация: если к жизни (человеческой, животной) относиться как к инженерному проекту, это стирает её ценность. Например, проекты «воскрешения» вымерших видов (де-экстинкция) часто ставят коммерческие цели выше благополучия самих животных [18, 19].

  • Милитаризация: биотехнологии могут быть использованы для создания нового биологического оружия или для «улучшения» солдат [5, 20].

4. Глобализация и неравенство.
Наука стала глобальной, но это привело к новой форме несправедливости. Данные и биологические образцы часто вывозятся из бедных стран в богатые, где на их основе создаются коммерческие продукты, не приносящие пользы стране происхождения [8, 21]. Разные страны имеют разный уровень этического контроля, что создаёт соблазн проводить спорные исследования там, где контроль слабее.

5. Открытая наука.
Стремление сделать данные и публикации открытыми — это благо для прозрачности, но создаёт новые проблемы: риск «травли» учёных за любую ошибку, рост неравенства из-за дорогих публикационных сборов и сложности с безопасностью, если опасные знания становятся общедоступными [22].

Будущие контуры новой этической парадигмы: этика сопряжения

Чтобы ответить на эти вызовы, нужна новая этическая модель. Её можно назвать «этикой сопряжения» (ethics of entanglement) [3, 4]. Её основные принципы:

  1. Проактивность и конструктивность. Этику нужно встраивать в проект с самого начала, как инженерный расчёт, а не проверять в конце. Необходима «Этическая оценка воздействия» для любого крупного исследования.

  2. Холизм. Оценивать нужно не отдельный эксперимент, а его связь с другими системами — технологическими, социальными, экологическими. Как исследование повлияет на общество через 30 лет?

  3. Расширенная ответственность. Ответственность лежит не только на отдельном учёном, но и на институтах, финансирующих организациях, этических комитетах. Нужна культура коллективной заботы об общем благе [3, 8].

  4. Цифровизация контроля. Можно использовать ИИ для проверки публикаций на плагиат или фальсификацию данных, но окончательное решение должно оставаться за человеком.

  5. Изменение культуры и образования. Этика должна стать не отдельным предметом, а частью мышления каждого учёного. Система оценки науки должна поощрять не только количество статей, но и добросовестность, открытость, сотрудничество [3].

Заключение
Следующее десятилетие станет временем больших перемен в научной этике. Старые модели не справляются с вызовами, которые создают большие данные, ИИ, конвергентные технологии и глобализация. Особенно серьёзен риск использования биотехнологий в авторитарных целях. Чтобы наука сохранила доверие общества, ей нужна новая этика сопряжения — проактивная, целостная и учитывающая сложные взаимосвязи в мире. Для этого необходимо изменить систему образования, создать новые междисциплинарные институты и международные правила. Будущее науки зависит от её способности не только создавать новое знание, но и делать это мудро и ответственно.

Список литературы

  1. Schwab K. The Fourth Industrial Revolution. Geneva: World Economic Forum; 2016.

  2. Jasanoff S. The Ethics of Invention: Technology and the Human Future. New York: WW Norton; 2016.

  3. Fuchsberger V, Durall Gazulla M, Rotkirch A. Doing responsibilities in entangled worlds. Soc Epistemol. 2025;39(1):1-17. DOI: 10.1080/02691728.2023.2269934.

  4. Nordmann A. NBIC-Convergence and Technoethics: Common Ethical Perspective. Int J Technoethics. 2016;7(1):1-15. DOI: 10.4018/IJT.2016010106.

  5. Trump B, Cummings C, Klasa K, et al. Governing biotechnology to provide safety and security and address ethical, legal, and social implications. Front Genet. 2023;13:1052371. DOI: 10.3389/fgene.2022.1052371.

  6. Nezhmetdinova F. Global challenges and globalization of bioethics. Croat Med J. 2013;54(1):83-5. DOI: 10.3325/cmj.2013.54.83.

  7. Fritz Z, Reuber M. Anticipatory regulation, anticipatory ethics: preparing for bioethical challenges in the age of gene editing. J Med Ethics. 2024;50(6):361-362. DOI: 10.1136/medethics-2023-109742.

  8. Dove ES, Özdemir V. What Role for Law, Human Rights, and Bioethics in an Age of Big Data, Consortia Science, and Consortia Ethics? The Importance of Trustworthiness. Laws. 2015;4(3):515-540. DOI: 10.3390/laws4030515.

  9. Beauchamp TL, Childress JF. Principles of biomedical ethics. 8th ed. New York: Oxford University Press; 2019. ISBN: 9780190640873.

  10. Hamza N. Ethical challenges and opportunities at the intersection of open science and AI. Open Res Eur. 2025;5:302. DOI: 10.30937/ORE.000302.

  11. Kitchin R. The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. SAGE; 2014. ISBN: 978-1-4739-0825-3.

  12. Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nat Mach Intell. 2019;1(5):206-215. DOI: 10.1038/s42256-019-0048-x.

  13. Jobin A, Ienca M, Vayena E. The global landscape of AI ethics guidelines. Nat Mach Intell. 2019;1(9):389-399. DOI: 10.1038/s42256-019-0088-2.

  14. Roco MC, Bainbridge WS, Tonn B, Whitesides G, eds. Converging Knowledge, Technology, and Society: Beyond NBIC Convergence. Cham: Springer; 2014. DOI: 10.1007/978-3-319-02204-8.

  15. Priaulx N. Vorsprung durch Technik: On biotechnology, bioethics, and its beneficiaries. Camb Q Healthc Ethics. 2011;20(2):174-84. DOI: 10.1017/S0963180110000824.

  16. Cyranoski D. The CRISPR-baby scandal: what's next for human gene-editing. Nature. 2019;566(7745):440-442. DOI: 10.1038/d41586-019-00673-1.

  17. Varypaiev O, Serohina H, Serediuk N, et al. Ethical challenges in biotechnology: exploring the boundaries of scientific intervention. Synesis. 2025;17(1):1-20.

  18. Odenbaugh J. Philosophy and ethics of de-extinction. Cambridge Prisms: Extinction. 2023;1:e7. DOI: 10.1017/ext.2023.4.

  19. Paganeli B, Galetti M. De-Extinction at a Crossroads: Ecology, Ethics, and the Future of Conservation in the Biotech Age. Ecol Lett. 2025;28(9):e70217. DOI: 10.1111/ele.70217.

  20. INSS. Biotechnology in the FY 2026 NDAA: Strategic Implications. 2025.

  21. Poort LM, Swart JAA, Mampuys R, et al. Restore politics in societal debates on new genomic techniques. Agric Human Values. 2022;39(4):1207-1216. DOI: 10.1007/s10460-022-10328-z.

  22. Wilkinson MD, Dumontier M, Aalbersberg IJ, et al. The FAIR Guiding Principles for scientific data management and stewardship. Sci Data. 2016;3:160018. DOI: 10.1038/sdata.2016.18.

Ключевые слова: этика научных исследований; этика сопряжения; NBICS-технологии; искусственный интеллект; биотехнологический фашизм; проактивная этика; открытая наука; ответственные исследования