Мыңға жуық ғалымдар мен инженерлер, зерттеушілер жасанды интеллект өнімдерін дайындаудағы қауіп-қатерлер туралы хат жазды. Жолдауға қол қойғандардың арасында танымал физик Стивен Хокинг, кәсіпкер Элон Маск және Apple компаниясының негізін қалаушы Стив Возняк бар.
Олардың ескертуінше, жасанды интеллекті пайдаланып қарулану бәйгесін ұйымдастырушылар мұның соңы немен аяқталарынан хабары жоқ. Бұл сұрақ БҰҰ-да талқыланып, белгілі бір автономды қаруландру жүйелеріне тыйым салу мәселесі айтылған. Болашақ өмір институтының сайтында жарияланған хат мәтіні Буэнос-Айресте өтетін жасанды интеллект бойынша халықаралық конференцияның делегаттарына тапсырылатын болады. Осыған дейін ВВС тілшісімен сұхбатта Стивен Хокинг жасанды интеллектің дамуы адамзат болашағына опат әкеледі деген қаупін білдірген еді. "Биологиялық эволюциясының ырғағы баяу адам жасанды интеллектпен бәсекеге түсе алмайды", - деді ол. Алайда хатқа қол қойғандардың арасында бар Microsoft корпорациясының зерттеу бөлімінің басшысы өз сайтында жасанды интеллектті пайдаланудың әскери емес әдістерін қорғаған видеосюжет жариялады. "Экономика, денсаулық сақтау және басқа облыстарға үлкен пайда әкеліп жатыр. Жасанды интеллектік дамуына байланысты үміт пайда болды. Қауіпті жағы бар, бірақ нақты бақылау болғанда оң өзгерістер көбірек болады деп ойлаймын", - деді ол.Похожие материалы
Новости
Экономика
На сколько будут увеличены пенсии и пособия в Казахстане в 2025 году
- 30 желтоқсан, 2024
Новости
Экономика
Более 13 тыс. казахстанцам назначена специальная социальная выплата
- 26 желтоқсан, 2024
Новости
Экономика
На сколько будут увеличены пенсии и пособия в Казахстане в 2025 году
- 30 желтоқсан, 2024