НЬЮ-ЙОРК – Соңғы 15 жыл ішінде Интернеттен, әлеуметтік желіден, ғылыми құрал-жабдықтардан, смартфондар мен бақылау камераларынан және басқа көптеген қайнарлардан алынатын сандық деректердің көлемі де, оларды өңдейтін компьютерлік технологиялардың ауқымы да күрт артты. Бұл Big Data ғылымды, технология мен медицинаны ілгері дамытатыны айқын. Дегенмен, дұрыс қолданбаса немесе басқа мақсатқа пайдаланса, ол көп мәселе тудыруы да мүмкін.
Қазірдің өзінде Интернеттегі іздеу жүйелері, аудармашы құралдар суреттерге белгі қою сияқты инновацияларда ауқымды мәліметтер машинаның интеллектісіне тапсырылады. Соның арқасында таяу болашақта Big Data үкіметтік саясатты жүргізу, әлеуметтік бағдарламаларды жүзеге асыру салаларын және ғылымды айтарлықтай дамытады.
Бірақ көп мәлімет әрдайым жоғары сапалы мәлімет бола бермейді. Мәселен, жақында Nature журналында жариялаған мақалаға сенсек, сайлау бойынша сауалнама жүргізушілер халық арасынан тиісті адамдарды таңдауда көп қиындыққа тап болғанын айтты. Заң бойынша олар тек сым телефондарға қоңырау алады, ал америкалықтардың көпшілігі қазір ұялы телефонға көшкен. Ал әлеуметтік желідегі қоғамдық пікірдің алуан түрі де сайлаушылардың нақты ұстанымы бола алмайды. Іс жүзінде «Туиттер» мен «Фейсбуктағы» саясат туралы посттардың көбі – компьютер жазған дүниелер.
Соңғы жылдары біржақты деректер жиынтығына сүйенетін автоматтандырылған бағдарламалардың кесірінен көп дау-дамай болды. Мәселен, былтыр маусым айында колледж студенті Google-ден «жұмысқа қажетті кәсіби деңгейі төмені шаш үлгісі» деп іздегенде көбіне қара түсті адамдардың бейнелері шыққан. «Кәсіби деңгейі жоғары» деп өзгерткенде, керісінше ақ түсті кісілер көп табылған. Бірақ бұл - Google бағдарламасын жасаушылардың емес, Интернетке қойған суреттеріне солай айдар таққан адамдардың кінәсі.
Іздеу нәтижелерін жұмысқа алу не жұмысқа шақыру мақсаттарына пайдаланатын Big Data бағдарламасы суреттердегі адамдарға ұқсас қара нәсілді кісілерді «кәсіби деңгейі төмен шаш үлгісі» үшін жазалап, сол арқылы бұрыннан бар сыңаржақ әлеуметтік алалауды қайта қоздырады. Бұл – жай ғана гипотетикалық болжам емес. Өткен жылы ProPublicа-ның рецидивизмнің қайталану мүмкіндігі туралы зерттеу нәтижесі бойынша, қылмыскерлерге жаза тағайындауда көп қолданылатын әдіснама қара нәсілді айыпкерлердің болашақта қылмысты қайталау мүмкіндігін тым асырып көрсетіп, ал ақ нәсілділердікін тым төмендететін болып шыққан.
Big Data-ның тағы бір қауіпті жері – оны манипуляциялауға болады. Егер жұрт өздеріне әсер ететін әлдебір маңызды шешімдерді қабылдатуда деректер жиынтығын пайдалануға болатынын білсе, онда олар шкаланы өз қалауына қарай өзгертуге талпынады. Мәселен, жұмысы оқушыларының тест нәтижесіне қарай бағаланатын білген мұғалім тек тест жазуға үйретуі немесе тіпті көшіруге рұқсат беруі мүмкін.
Сол сияқты өз білім ордаларын US News and World Reports рейтингінде жоғары көтергісі келетін университеттер ғылымның орнына қымбат жаттығу залдарын салғызу туралы ақылсыз шешімдер қабылдауы мүмкін. Бұдан да жаманы – Маунт Сент-Мэри университеті үлгерім коэффициентін жоғарылату үшін этикаға жат әрекеттерге барып, нашар оқитын студенттерді сабақтың алғашқы апталарында-ақ анықтап, оқудан шығарған.
Тіпті Google-дың іздеу жүйесінің өзінде бұған қарсы иммунитет жоқ. Сансыз деректердің жинақталатынына, оларды әлемдегі ең мықты ғалымдардың бақылап отыратынына қарамастан, оның нәтижелеріне «іздеу жүйесін оңтайландыру» және «Google бомбалау», «спамдекстеу» немесе шағын топтың мүддесін қорғайтын сол сияқты басқа да манипуляциялар арқылы өзгертуге болады.
Үшінші қауіп – жеке өмір құпиясына қол сұғу қаупі. Мұның себебі, бұл күндері жинақталатын деректің көпшілігі – жеке ақпарат. Соңғы жылдары коммерциялық және үкіметтік мекемелерден аса ауқымды құпия ақпараттар ұрланды. Еш ерекшелігі жоқ деген посттан, мәселен киноға шолудан (тіпті ол псевдониммен жазылған күннің өзінде) автордың саяси көзқарасын, тіпті оның сексуалдық талғамын да біліп алуға болатынын ғалымдар дәлелдеген.
Big Data-ның тағы бір үлкен кемшілігі – өз ісіне жауап бере алмайтыны. Зерттеу жүйесінің алгоритмі өзіне әділетсіздік жасады деп санаған адамның шағымданатын жері жоқ, себебі іздеудің нақты нәтижелері түсіндірілмейді, немесе бұл алгоритмдерді жазған адам оның қалай жұмыс істейтінін айтқысы келмейді. Үкіметтер мен корпорациялар бұл алгоритмдер «математикалық» және «ғылыми» деп қарсылық танытатындарды қудалай алғанымен, олардың өздері де іздеу жүйесін жасаушылардан қорқады. Жақында Еуропа одағы алгоритмнен жапа шеккен адамдардың «түсіндіру құқығына» кепілдік беретін ереже қабылдады. Бірақ, мұның іс жүзінде қалай жұмыс істейтінін уақыт көрсетеді.
Деректер жөніндегі ғалым Кэти О’Нейл жақында шыққан «Математикалық қырып-жою қарулары» атты кітабында атап көрсеткеніндей, Big Data-дан жапа шеккен жандардың ол мәліметті өзгерту мүмкіндігінің болмауы аса ауыр салдарға алып келуі мүмкін.
Бір жақсы жаңалық - Big Data-ның бұл қатерлерін болдырмауға мүмкіндік бар. Бірақ адамның жеке өмірін барынша қорғамайынша, әділетсіздікті көріп, түзетіп отырмайынша, алгоритмнің ұсыныстарын ақылмен пайдаланып, оның ішкі жұмысын, оның нәтижесіне негіз болатын мәліметті толық түсінбейінше, бұған қол жеткізу мүмкін емес.
Автор туралы: Эрнест Дэвис – Нью-Йорк университетіне қарасты Курант атындағы Математика институтының компьютер ғылымдары профессоры.
Copyright: Project Syndicate, 2017. www.project-syndicate.org