https://frosthead.com

Suured andmed või liiga palju teavet?

Me kõik teame, et meie maailmades on palju rohkem teavet kui vanasti. Mis puutub veel sellesse, siis noh, enamus meist on üsna abitu.

Seotud sisu

  • Infograafika läbi aegade tõstab esile teaduse visuaalse ilu
  • Miks ei suuda Google'i gripitrendid grippi jälgida (veel)

Siin on hindamatu tükis kogu selle teabe kohta, komplimendid Dave Tureki kohta - mees, kes vastutab superarvuti arendamise eest IBMis: alates 2003. aastast ja töötades tagasi inimajaloo alguseni, genereerisime IBMi arvutuste kohaselt viis eksabüti - see on viis miljardit gigabaiti teavet. Möödunud aastaks väntasime iga kahe päeva tagant välja nii palju andmeid. Järgmise aasta lõpuks ennustab Turek, et teeme seda iga 10 minuti tagant.

Aga kuidas see võimalik on? Kuidas said andmed selliseks digitaalseks kudzuks? Lihtsamalt öeldes - iga kord, kui mobiiltelefon oma GPS-asukoha välja saadab, iga kord, kui midagi veebist ostad, iga kord, kui klõpsate Facebookis nupule Meeldib, sisestate uue digitaalse sõnumi pudelisse. Ja nüüd on ookeanid nendega üsna kaetud.

Ja see on ainult osa loost. Tekstsõnumid, klientide andmed, sularahaautomaatide tehingud, turvakaamerate pildid ... nimekiri jätkub. Selle kirjeldamiseks kasutatud sõna on "Big Data", ehkki see ei õigusta meie loodud koletise ulatust.

See on uusim näide tehnoloogiast, mis tõestab meie võimekust seda kasutada. Sellisel juhul ei ole me hakanud järele jõudma oma teabekogumisvõimele, mistõttu on juhtkonna lemmikpüstitus tänapäeval veendunud, et tulevik kuulub ettevõtetele ja valitsustele, kes saavad kogu nende andmetega aru saada kogumine, eelistatavalt reaalajas.

Ettevõtetel, kes saavad tõlgendada iga digitaalset riivsaia, mille kliendid endast maha jätavad, on eelis, mõtlemine käib - mitte ainult see, kes viimase tunni jooksul midagi ostis, vaid ka see, kas nad säutsusid sellest või postitasid foto kuhugi sotsiaalvõrgustike keerisesse. Sama kehtib ka linnade kohta, mis saavad koguda andmeid tuhandetelt anduritelt, mis suunavad nüüd linnamaastikke ja muudavad linnaelu ebamäärasused, näiteks liiklusvoog, teaduseks.

Pole üllatav, et poliitilised kampaaniad kaaluvad juba kaevandades raevukalt andmeid, keskendudes valijate nano sihtimisele, et nad teaksid täpselt, kuidas neid häälte ja raha järgi häälestada. New York Timesi kolumnisti Thomas Edsalli sõnul on analüütikute järelduste hulgas olnud, et vabariiklased eelistavad restorani „The Office” ja Cracker Barrel, samal ajal kui demokraadid vaatavad suurema tõenäosusega saadet „Late Night With David Letterman” ja söövad Chuck E-s. Juust.

Digitaalse leviala tõlgendamise kiirus selgitab, miks Google teatas eelmisel nädalal, et hakkab müüma toodet, mille nimi on BigQuery - tarkvara, mis suudab sekundite jooksul skannida terabaiti teavet. Ja miks nägi startup nimega Splunk, millel on tehnoloogia, mis suudab analüüsida tohutul hulgal kliendi- ja tehingute andmeid, siis tema aktsiate väärtus tõusis eelmisel kuul avalikuks muutumise päeval peaaegu 90 protsenti. Seda ettevõttele, kes kaotas eelmisel aastal 11 miljonit dollarit.

Andmeteadlase tõus

Kuid isegi juurdepääs parimatele andmete dešifreerimisriistadele ei taga suurt tarkust. Väga vähestes ettevõtetes on töötajaid, kes on koolitatud mitte ainult selleks, et hinnata andmete hulka - sealhulgas miljonite Facebooki-lehtede ja nutitelefonide struktureerimata näpunäiteid -, vaid ka sellega midagi ette võtta.

McKinsey Global Insitute andis eelmisel aastal välja aruande, milles kirjeldati „Big Data” kui „järgmist innovatsiooni piirid”, kuid ennustati ka, et 2018. aastaks on USA ettevõtetel vajalike analüütiliste oskuste osas tõsine andekate puudus - sama palju kui 190 000 inimest. Ja see väidab, et veel 1, 5 miljonit juhti tuleb koolitada strateegiliste otsuste tegemiseks, kui nende juurde tulevate andmete kogumine on kiire.

Kuid mitte kõik ei usu Big Data maagiasse. Penni Whartoni ärikooli turundusprofessor Peter Fader pole veendunud, et rohkem andmeid on parem. Mitte, et tema arvates ei peaks ettevõte proovima oma klientide kohta võimalikult palju õppida. Lihtsalt on nüüd keskendutud iga natukese ajaga andmete koondamisele nii palju, et tema hinnangul hinnatakse mahtu tõelise analüüsi asemel.

Siin on Faderi võetud värskest intervjuust MIT-i Technology Review'ile: “Isegi lõpmatute teadmiste abil mineviku käitumisest ei ole meil sageli piisavalt teavet tuleviku kohta tähendusrikkate ennustuste tegemiseks. Tegelikult, mida rohkem andmeid on, seda rohkem vale usaldust on meil… Oluline on mõista, mis on meie piirid, ja kasutada lünkade täitmiseks parimat võimalikku teadust. Kõik maailma andmed ei saavuta kunagi seda eesmärki meie jaoks. ”

Kes on teie andmed?

Siin on valim, kuidas suurandmeid suurte probleemide lahendamiseks kasutatakse:

  • Nad teavad, millal on olnud halb või hea: kuigi enamik ettevõtteid keskendub oma klientide analüüsimisele, kogub Amazon punkte, kasutades nende abistamiseks Big Data.
  • Naastude uurimine: kas soovite teada, millised pullid sünnitavad kõige produktiivsemad piimalehmad? Piimatööstus on välja töötanud viisi numbrite krõbistamiseks.
  • Andmete abil diagnoosimine: SUNY Buffalo teadlased analüüsivad oma jõupingutustes ulatuslikke andmekogumeid, et teha kindlaks, kas hulgiskleroosi ja keskkonnategurite vahel on seos, näiteks kui päikesevalgus pole piisavalt avatud.
  • Vaeva otsimine: ettevõte Recorded Future kaevandab sotsiaalvõrgustikest ning valitsuse ja finantssaitidelt teavet, et prognoosida, kuidas rahvastiku kasv, veepuudus ja äärmuslikud ilmastikuolud võivad tulevikus põhjustada poliitilisi rahutusi ja terrorismi.

Video boonus: andmete hõivamine on üks asi. Selle atraktiivseks ja arusaadavaks muutmine on hoopis teine ​​väljakutse. Selles TED-vestluses vaevab David McCandless "teabekaarte".

Suured andmed või liiga palju teavet?