OpenAI компаниясының бас директоры Сэм Альтман пайдаланушыларға ChatGPT-тің жаңа агентіне толық сенім артпауға кеңес берді. Әсіресе, бұл жеке немесе құпия деректермен жұмыс істегенде аса маңызды, деп хабарлайды El.kz интернет порталы.
Бұл - OpenAI жасаған алғашқы жүйе, ол күрделі көп кезеңді тапсырмаларды автономды түрде орындай алады. Агент күрделі сұраныстарды шағын бөліктерге бөліп, сыртқы құралдарды қолданып, әрекетті адам көмегінсіз жүзеге асыра алады. Бұған дейінгі Deep Research және Operator секілді өнімдермен салыстырғанда, бұл — айтарлықтай ауқымды қадам.
Альтманның айтуынша, жүйеге қаншама сақтық шаралары мен ескертулер енгізілсе де, барлық қауіп-қатерді алдын ала болжау мүмкін емес. Сол себепті ол бұл агентті аса маңызды тапсырмаларда немесе жеке ақпаратқа қатысты қолданбауға шақырады.
Қауіпсіздікке қатысты көптеген шешім қабылдағанымызбен, кейбір тәуекелдер сақталады. Агентті алдап, құпия ақпаратты ашуға немесе қажетсіз әрекеттер жасауға итермелеу – шынайы қауіп, – дейді Альтман.
ЖИ-агентке, яғни жасанды интеллектке, толық еркіндік беру — өте қауіпті. Мысалы, сіз оған электронды поштаңызды түгел басқаруға рұқсат берсеңіз, ол хаттарды өздігінен оқып, жауап бере алады. Бірақ мұндай жағдайда алаяқтар қарапайым сөздермен агентті алдап, сіздің жеке немесе құпия деректеріңізді ұрлап кетуі мүмкін.
Ғалымдар бірнеше рет дәлелдеген: ЖИ-агенттерді қарапайым, бірақ әдейі құрылған сұрақтармен (prompt) адастыруға болады. Соның салдарынан агент сіз рұқсат бермеген ақпаратты жариялап қоюы немесе орынсыз әрекет жасауы мүмкін.
Сол себепті OpenAI басшысы Сэм Альтман былай дейді:
Агентке тек нақты тапсырмаға қажет рұқсатты ғана беру керек. Қалғанына жол ашпаңыз.
Қарапайым тілмен айтқанда, ЖИ-ға шектеусіз еркіндік бермеңіз. Не істейтінін нақты біліп тұрыңыз, ал артық рұқсат — өз қауіпсіздігіңізге төнген қатер.
OpenAI қауіпсіздікті күшейту үшін пайдаланушылардың кері байланысына сүйенетінін мәлімдеді. Алайда, Альтман ескерткендей, егер агент әрекеті салдарынан жеке дерек тараса немесе басқа да келеңсіз жағдайлар орын алса, жауапкершілік компанияда емес, пайдаланушыда болады.
Мұндай технологияларды абайлап, біртіндеп енгізіп, тәжірибе арқылы үйрену — ең дұрыс жол. Қоғам, технология және қауіптерді басқару қатар дамуы қажет, – дейді ол.
ChatGPT-тің жүздеген миллион қолданушысы бар екенін ескерсек, мұндай жүйелерді "тәжірибе жүзінде үйрену" нақты құрбандар мен шығындарға әкелуі мүмкін. Яғни, жасанды интеллекттің мүмкіндігі зор болғанымен, сақтық, жауапкершілік және саналы пайдалану бұрынғыдан да маңызды болып отыр.