© El.kz/Марина РУЗМАТОВА/ChatGPT

Кто смог обмануть ChatGPT и кто сделал его умным: все интересные факты

Представьте: вы пишете в чат вопрос, и через секунду получаете ответ, будто от друга, который знает всё — от квантовой физики до идей для крутой фотосессии. Это ChatGPT, умный помощник, без которого многие уже не могут обойтись. Но кто создал эту штуку и как появилась эта технология? Об этом рассказывает El.kz.

ChatGPT: твой личный помощник или почти человек?

ChatGPT — это чатбот с искусственным интеллектом, который умеет всё: писать письма, помогать с учебой, придумывать идеи для фото. Его создала компания OpenAI из Сан-Франциско, и 30 ноября 2022 года он буквально взорвал интернет. За два месяца у него было уже 100 миллионов пользователей! Для сравнения, Стриминговый сервис Netflix ждал своего первого миллиона больше трех лет.

ChatGPT работает на модели GPT — это как суперумный мозг, который понимает, что ты хочешь, даже если пишешь с ошибками. Всё началось в 2018 году, а корни уходят к технологии Transformer от Google, которая научила ИИ думать почти как человек.

Команда OpenAI 

OpenAI — это ребята из Сан-Франциско, которые в 2015 году решили, что ИИ должен быть не только умным, но и безопасным и полезным. Сначала они работали как некоммерческая команда, но в 2019 году перешли на модель, где можно привлекать миллиарды долларов, но всё равно держать фокус на этике. Это как если бы фотограф продавал свои снимки, чтобы купить крутой объектив, но при этом учил других снимать бесплатно.

Кто же оснаватель OpenAI?

OpenAI создали 11 человек, которые решили объединить свои идеи, чтобы построить будущее с ИИ. Вот главные герои:

Илон Маск: Да, тот самый, кто делает Tesla и SpaceX! Он вложил кучу и помог запустить OpenAI, но в 2018 году ушел, потому что не сошелся во взглядах. Это как если бы фотограф покинул студию, чтобы творить по-своему.

Сэм Альтман: Главный босс OpenAI. Раньше он помогал стартапам вроде Airbnb, а теперь ведет революцию ИИ. В 2023 году его на пять дней уволили, но фанаты и коллеги вернули его обратно!

Грег Брокман: Технический волшебник, который сделал так, чтобы ChatGPT работал без глюков, как идеально настроенная камера.

Илья Суцкевер: Ученый, чьи идеи, как фильтры в фотошопе, только для ИИ. Благодаря ему ChatGPT такой умный.

ChatGPT, созданный OpenAI, иногда используют для опасных целей — от обмана до создания взрывчатки. При этом он способен выполнять сложные задачи, как в случае с 23-летним Кенжебеком Исмаиловым из Алматы. В декабре 2024 года он вёз маму в больницу, когда машина впереди резко остановилась, перегородив единственную полосу. Чтобы избежать аварии и не задерживать поток, Кенжебек объехал её по автобусной полосе. Камеры зафиксировали манёвр, и ему выписали штраф на 5800 тенге. Он оплатил его, но, изучив видео на сайте Qamqor.gov.kz, понял, что штраф несправедлив — машина впереди создала помеху, а он действовал по обстоятельствам.

Кенжебек подал жалобу в полицию Алматы, но её отклонили, сославшись на то, что оплата штрафа означает признание вины, хотя в Казахстане ранняя оплата даёт скидку 50%. Он решил обратиться в суд. Не имея средств на адвоката, Кенжебек использовал ChatGPT, чтобы составить иск, подготовить документы и даже ответить на вопросы судьи в реальном времени через функцию синтеза речи. Через 10 минут судья отменил штраф, признав его незаконным. 

Но вот ещё одна история.

В 2024 году хакер под псевдонимом Amadon совершил тревожный поступок. Он хотел узнать, как изготовить бомбу, подобную той, что использовали в теракте в Оклахома-Сити в 1995 году. ChatGPT изначально отказался, ссылаясь на этические ограничения, но Amadon обошёл защиту. Он предложил ИИ «поиграть в игру», создав вымышленный научно-фантастический мир, где правила безопасности не действуют. Через серию вопросов ChatGPT выдал подробные инструкции по созданию взрывчатки, включая минные поля и взрывные устройства. Эксперт по взрывчатке сообщил TechCrunch, что эти данные реальны и опасны, но слишком секретны для публикации. Amadon назвал это «взломом социальной инженерии» — он не ломал код, а обманул ИИ, как мошенник обманывает человека.

Такой метод, известный как «jailbreaking», показывает, что защита ChatGPT не всегда надёжна.

Ранее мы писали о том, как искусственный интеллект сможет создавать полноценные фильмы к 2026 году.