Պատմության Podcasts

Տեղեկատվական դարաշրջան

Տեղեկատվական դարաշրջան


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.


Տեղեկատվական դարաշրջան

ՎԱՇԻՆԳՏՈՆ. Մայիսին Սմիթսոնյան ամերիկյան պատմության ազգային թանգարանը կբացի իր ամենամեծ, ամենահավակնոտ ցուցահանդեսը ՝ 9,5 միլիոն դոլար արժողությամբ, տասնչորս հազար քառակուսի մետր մակերեսով մշտական ​​տեղադրում, որը կոչվում է «Տեղեկատվական դարաշրջան. Մարդիկ, տեղեկատվություն և տեխնոլոգիա»:

«« Տեղեկատվական դարաշրջանը »կփորձի այցելուներին հուզիչ և զվարճալի կերպով ցույց տալ, թե ինչպես է տեղեկատվությունը ներթափանցում մեր կյանքը», - ասում է ցուցահանդեսի համադրող Դեյվիդ Կ. Էլիսոնը: Այն սկսվում է պտտվող կարուսելով, որը ցույց է տալիս, թե ինչպես ենք մենք ստեղծել աշխարհ, որտեղ մենք խոսում ենք մայրցամաքներով հեռախոսով, լրացնում մեր դրամապանակները կանխիկ միջոցներով, որոնք մերժում են ավտոմատ վաճառողները, փաստաթղթավորում ենք արձակուրդները տեսախցիկներով և ժամանակ ենք սպանում Nintendo- ի հետ:

Կարելի է ասել, որ ամեն ինչ սկսվել է 150 տարի առաջ ՝ Սեմյուել Մորսի հեռագրով: Peopleուցահանդեսի առաջին մասը ՝ «Մարդիկ, տեղեկատվություն և տեխնոլոգիա, 1835-1939», հետևում է զարգացող տեղեկատվական դարաշրջանի երկու զուգահեռ ուղիների ՝ կապի և տեղեկատվության մշակման, վերջինս ներառելով ոչ միայն տեխնոլոգիական զարգացումները, ինչպիսիք են ավելացնող մեքենան և կանխիկ դրամը գրանցել, այլ սոցիալական զարգացումներ, ինչպիսիք են կառավարման ժամանակակից համակարգերի ի հայտ գալը: Բաժինն ավարտվում է 1939 թվականի քաղաքի փողոցի իրական չափերով վերաստեղծմամբ, որտեղ այցելուները կարող են դիտել, թե ինչպես էին այն ժամանակ տեղեկատվական տեխնոլոգիաները, ինչպիսիք են հեռախոսը և ռադիոն, արդեն դարձել էին մարդկանց կյանքի անբաժանելի մասը:

Հաջորդ բաժնում ՝ «Երկրորդ համաշխարհային պատերազմ. Տեղեկատվական պատերազմ, 1940-45», հաղորդակցության և տեղեկատվության մշակման երկու ուղղությունները միաձուլվում են: «Սա տեղեկատվական դարաշրջանի շրջադարձային կետն էր», - ասում է համահեղինակ համադրող Սթիվեն Լյուբարը (ով հոդված է գրել այս համարում արտոնագրերի մասին): Բացի այնպիսի նորամուծություններից, ինչպիսիք են ռադարն ու սոնարը, «հաշվողական տեխնոլոգիաների իրական մղումը գալիս է Երկրորդ համաշխարհային պատերազմից»: Պատերազմի ընթացքում սաղմնային համակարգչային տեխնոլոգիան ճեղքեց ENIGMA- ն ՝ գերմանացիների ենթադրյալ անխախտ ծածկագիրը, մինչդեռ վաղ թվային համակարգիչ ENIAC- ը հաշվարկեց բանակի հրթիռների հետագիծը:

Երկրորդ համաշխարհային պատերազմի բաժնի ամենահետաքրքիր հատվածը Երկրորդ համաշխարհային պատերազմի ռազմածովային կործանիչի մարտական ​​տեղեկատվական կենտրոնի մանրամասն հանգիստն է, որտեղ գծագրվել և վերլուծվել են ռադիոյի, սոնարի և ռադիոտեղորոշիչների կողմից հավաքված կենսական տվյալները: «Սա առաջին անգամն էր, որ էլեկտրոնային սարքեր օգտագործելն ավելի լավ էր, քան պարզապես փողոց դուրս գալը և իրերին նայելը», - նշում է Լուբարը:

Վերջին բաժինը հետևում է տեղեկատվական տեխնոլոգիաների լայնածավալ զարգացումներին մինչև այժմ ՝ տրանզիստորից և բարձր հավատարմությունից մինչև համակարգչային հեղափոխություն և գլոբալ տեղեկատվական ցանցերի վերելք: Theուցադրությունների շարքում են General Motors- ի արդյունաբերական ռոբոտը և հեռուստաստուդիայի վերստեղծումը, որտեղ 1960-ին տեղի ունեցան Քենեդի-Նիքսոնի բանավեճերը, քաղաքական իրադարձություններ, որոնք հաստատեցին էլեկտրոնային լրատվամիջոցների հսկայական ուժը:

«Տեղեկատվական դարաշրջանը» աշխուժանում է մի շարք ինտերակտիվ ցուցադրումներով: Ի թիվս այլ բաների, այցելուները կկարողանան ծածկագրել իրենց անունը ENIGMA ծածկագրով, նրանց մատնահետքերը սկանավորել ՀԴԲ համակարգչով, երեկոյան հեռուստատեսային նորությունների մի հատված պատրաստել հումքի կադրերից և փորձել կարգավորել 911 -ի շտապ օգնության կանչը: Տեղեկատվության անխափան հոսքի (և Սմիթսոնյան սովորական քաղաքականության) ոգուն համահունչ ՝ թանգարան մուտքն անվճար է:

ՆՅՈARKԱՐԿ, ԴԵԼ. Երբ Թոմաս Էդիսոնը ստեղծեց հնչյունագիրը 1877 թվականին, նա այն դիտեց որպես գրասենյակի գործիք և հուսահատեցրեց այն օգտագործել ժամանցի համար: Ըստ Դելավեր համալսարանի տեխնոլոգիայի պատմաբան Georgeորջ Բասալլայի, այս պատմության բարոյականությունն այն է, որ «անհրաժեշտությունը գյուտի մայրը չէ: Գոյատևելու համար մեզ պետք չէր կրակ կամ քարե գործիքներ ունենալ »:

Տեխնոլոգիայի պատմաբանները, նշում է Բասալլան, ի տարբերություն գիտության պատմության իրենց գործընկերների, ավանդաբար խուսափում են դարերի և մշակութային սահմանները հատող լայնածավալ տեսություններից: «Ես սիրում եմ մեծ տեսություններ», - ավելացնում է նա: Նա շատ մեծ տեսություն է առաջ քաշում իր վերջին `The Technology Evolution (Cambridge University Press) գրքում: Գիրքը լայնորեն նայում է տեխնոլոգիական փոփոխությունների գործընթացին: Որտեղի՞ց են հայտնագործությունները: Ինչու՞ են դրանք այդքան շատ: Տեխնոլոգիական փոփոխությունների վերաբերյալ Բազալայի տեսակետը իր հիմքն է վերցնում կենսաբանական էվոլյուցիայից: Livingամանակի երկար տևողությամբ թե՛ կենդանի, թե՛ մարդածին իրերի հաջորդական սերունդները աստիճանական փոփոխությունների են ենթարկվում ՝ ընդհանրապես դառնալով ավելի բարդ:

Տեխնոլոգիական էվոլյուցիան պետք է հիմնարար ձևերով տարբերվի կենսաբանական էվոլյուցիայից, իհարկե, ինչպես ընդունում է Բասալլան: Արհեստական ​​իրերն ու տեսակները երկուսն էլ հասնում են բազմազանության ՝ էվոլյուցիոն բազմաթիվ ուղիներով ճյուղավորվելով, բայց միայն տեխնածին իրերը կարող են միաձուլվել, ինչպես, օրինակ, երբ ներքին այրման շարժիչը, հեծանիվը և ձիասայլակը միանում են ՝ կազմելով ավտոմեքենան:

«Դա անիմաստ անալոգիա է», - խոստովանում է Բասալլան: «Դա տեխնոլոգիայի մասին մտածելու եղանակ է»: Նա, սակայն, էվոլյուցիոն անալոգիան դիտարկում է որպես հակաթույն մի քանի հանրաճանաչ թյուրըմբռնումների վերաբերյալ, թե ինչպես է զարգանում տեխնոլոգիան:

Առաջին, և, թերևս, պատմաբանների համար ամենասարսափելին, տեխնոլոգիան դիտարկում է որպես հերոս գյուտարարների Պրոմեթևյան նվերների շարք: Սա նպաստում է տեխնոլոգիայի պարզեցված, «անընդհատ» տեսակետին: Էվոլյուցիոն մոդելը շեշտում է մարդու կողմից ստեղծված հաջորդական սերունդների շարունակականությունը: «Յուրաքանչյուր նոր արտեֆակտ, - գրում է Բասալլան, - որոշ չափով հիմնված է դրա հետ կապված գոյություն ունեցող արտեֆակտի վրա»: Այսպիսով, ենթադրաբար, Ուզին կարող է հետագծվել զենքի անխափան շարքի երկայնքով ՝ սկսած առաջին ժայռից, որը կողոպտել է մարդասպանը:

Տեխնոլոգիական շարունակականության ավելի շոշափելի ապացույցներ կարելի է գտնել ՝ նայելով այն, ինչ Բազալան անվանում է սկեուոմորֆներ ՝ կառուցվածքային կամ նախագծային տարրեր, որոնք ոչ մի նպատակի չեն ծառայում, բայց անբաժան են եղել արտեֆակտի ավելի վաղ մարմնավորման համար: Օրինակները ներառում են ոչ ֆունկցիոնալ որմնադրությանը պատկանող խորանարդներ, որոնք տեղակայված են Հին Հունաստանի քարե տաճարների թիկնոցների տակ, որոնք մնացորդներ են `նախշավոր հունական կառույցների տանիքներին ամրացված փայտե ճառագայթների դուրս ցցված ծայրերից: Ավելի վաղ ժամանակներում առաջին երկաթե կամուրջները հաճախ մոդելավորվում էին փայտից և որմնադրությունից `մետաղի սեփական հատկություններից լիարժեք օգտվելու փոխարեն:

Տեխնոլոգիական էվոլյուցիան նաև հակադարձում է տեխնոլոգիայի համառ առասպելին `որպես պարզապես կիրառական գիտություն: Գոլորշի շարժիչի և ռադիոկապի զարգացման վերաբերյալ Բազալայի ուսումնասիրությունը ցույց է տալիս շատ ավելի բարդ փոխազդեցություն, որի ընթացքում տեխնոլոգիական նորամուծությունները հաճախ տեղի են ունենում գիտական ​​հայտնագործություններից առաջ, որոնք բացատրում են դրանց կառավարման սկզբունքները:

Հավանաբար, կենսաբանական էվոլյուցիայի քաոսային բնույթի ազդեցության տակ Բասալլան դիմադրում է տեխնոլոգիայի զարգացման կոկիկ մեխանիզմ առաջարկելուն: Փոխարենը նա նկարագրում է «նորույթի» և «ընտրության» երկու գործընթաց, որոնցում ոգեշնչումը, գիտությունը և անհրաժեշտությունը կիսում են բեմը հոգեբանական, տնտեսական և սոցիոմշակութային գործոնների տեսականիով: Նա եզրափակում է. «Դա խառնաշփոթ գործընթաց է»:

ՔԵՄԲՐԻGE, ՄԱՍՍ. Մասաչուսեթսի տեխնոլոգիական ինստիտուտի գրավոր ծրագրի դոցենտ Ռոզալինդ Ուիլյամսը տեխնոլոգիայի պատմության մեծ հարցերին մոտենում է հակառակ ուղղությունից: Այնտեղ, որտեղ Georgeորջ Բասալան զբաղվում է տեխնոլոգիաների փոխակերպմամբ, Ուիլյամսը, վերջերս հրատարակված «Գրառումներ ստորգետնյա մասին» գրքի հեղինակ (MIT Press), նայում է այն կողմ, թե ինչպես են տեխնոլոգիաները փոխում աշխարհը: «Քսաներորդ դարի վերջին, - գրում է նա, - մեր տեխնոլոգիաներն ավելի ու ավելի քիչ են նմանվում գործիքների ՝ առանձին օբյեկտների, որոնք կարելի է դիտարկել իրենց շրջապատից առանձին, և ավելի ու ավելի շատ նման են համակարգերի, որոնք միահյուսված են բնական համակարգերի հետ, երբեմն գլոբալ մասշտաբով: »

Իր գրքում նա ուսումնասիրում է արևմտյան մշակույթի շերտերը `պատասխանելով այն հարցին. Նա ասում է, որ հարցն առաջին անգամ ծագել է մի քանի տարի առաջ ՝ գրական ուսումնասիրությունների արանքում. քնածը արթնանում է, և Գաբրիել Թարդեի ստորգետնյա մարդը:

Նրա ուսումնասիրությունների մեծ մասը կենտրոնացած է տասնիններորդ և քսաներորդ դարերի սկզբին, այն ժամանակաշրջանը, երբ արդյունաբերական հեղափոխությունը Լոնդոնի նման քաղաքները վերածեց ծխի պատված այլ աշխարհների, և երբ ժամանակակից քաղաքային ենթակառուցվածքների ՝ կոյուղու, կոմունալ խողովակների, հեռախոսային մալուխների ի հայտ գալը պեղումները դարձնում էր կանոնավոր: քաղաքի կյանքի մի մասը: Դա նաև ժամանակ էր, երբ միջավայրի տեխնոլոգիական վերափոխումը ազդեց Կաֆկայի և Դոստոևսկու օտարման գրականության, Դիքենսի սոցիալական քննադատության և Հ. Գ. Ուելսի երգիծանքի վրա:

Ուիլյամսը եզրակացրել է, որ տեղի է ունենում մարդկային փորձի հիմնարար վերափոխում: «Շրջակա միջավայրը փոխելու նպատակը կարող է հին լինել, - գրում է նա, - բայց այդ նպատակը գիտակցելու մեր ունակությունն աննախադեպ է»: Միակ համեմատելի ժամանակաշրջանը գյուղատնտեսության արշալույսն էր, այդ տրավմատիկ պահը, երբ տղամարդիկ և կանայք զոհեցին իրենց քոչվորական ազատությունը ՝ որպես որսորդներ, հանուն հողին կապված կյանքի հարաբերական անվտանգության: «Մենք այժմ մշակութային սգի և ցնցումների մեկ այլ ժամանակաշրջանի ենք անցնում, երբ մենք նայում ենք դեպի անհետացող կյանքի ձևին»:

Ուիլյամսը ընդունում է, որ արտադրված միջավայրի աճը հազիվ թե ամեն ինչ վատ լինի: «Երբ տեսնում ես, որ մի գեղեցիկ մարգագետին փոխարինվում է առևտրի կենտրոնով և կայանատեղով, դա կարող է անհանգստացնել», - ասում է նա: «Բայց ներսում մի առևտրի կենտրոն կարող է առաջարկել մի աշխարհ, որը շատերին դուր է գալիս: Արտաքին աշխարհի շատ անհարմարություններ վերացվում են »: Բացի այդ, արտադրված միջավայրը նույնիսկ ավելի տարածված է, քան մենք կարող էինք ենթադրել: Հեշտ է մոռանալ, որ շատ հանրային զբոսայգիների փարթամ տարածքները նույնքան արտադրված միջավայր են, որքան Առաջին համաշխարհային պատերազմի խրամատները: Ուիլյամսը նշում է, որ շրջակա միջավայրի վերաբերյալ վերջին քննարկումները կարող են մեզ ստիպել փոխել բնական և արտադրված միջավայրի մեր սահմանումը: «Եթե նայեք գլոբալ առումով, կտեսնեք, որ անսահման սահման չկա: Մենք ապրում ենք փակ համակարգում: Մենք արդեն մակերեսի տակ ենք »:


Նոր տեղեկատվական դարաշրջանը

LinkedIn- ի հիմնադիր Ռիդ Հոֆմանը վերջերս ասաց. «Եթե Web 1.0 -ը ներգրավվի գնացեք որոնելու, ստացեք տվյալներ և որոշ սահմանափակ ինտերակտիվություն, և եթե ներառում է Web 2.0 իրական ինքնություններ եւ իրական հարաբերություններ, ապա Web 3.0 կլինի իրական ինքնություններ, որոնք հսկայական քանակությամբ տվյալներ են ստեղծում.”

Ռիդը հեռատես է և, անշուշտ, ուներ այս իրավունքը: Բայց այն տեղեկությունները, որոնք նկարագրել է Ռիդը, այսբերգի միայն ծայրն է: Մենք արդեն հազար անգամ ավելի շատ տվյալներ ենք հավաքում, քան դա: Աճը երկրաչափական է, և նորարարական հնարավորությունները նույնիսկ ավելի մեծ են, քան կարող է պատկերացնել Սիլիկոնյան հովիտը:

Ես կբացատրեմ, թե ինչու եմ դրան հավատում: Բայց սկսեմ պատմության կարճ դասից:

Դարերի ընթացքում մենք բազմաթիվ տվյալներ ենք հավաքել այնպիսի բաների վերաբերյալ, ինչպիսիք են կլիմայական պայմանները, ժողովրդագրությունը, բիզնեսը և կառավարությունը: Մեր ֆերմերները հետևում էին եղանակին, որպեսզի նրանք իմանան, թե երբ են աճեցնելու իրենց բերքը: Մենք ունեինք հողային փաստաթղթեր, որպեսզի կարողանայինք սեփականություն ունենալ, և մենք մշակեցինք հեռախոսագրքեր, որպեսզի կարողանայինք մարդկանց գտնել: Web 1.0- ը հնարավորություն տվեց այս տեղեկատվությունը գլոբալ հասանելի և որոնելի դարձնել:

Սա արագորեն վերածվեց Web 2.0 -ի: Այժմ տվյալներ էին հավաքվում այն ​​մասին, թե ինչ նորություններ ենք կարդում, որտեղ ենք գնումներ կատարում, ինչ կայքեր ենք զբաղվում, ինչ երաժշտություն ենք լսում, ինչ ֆիլմեր ենք դիտում և որտեղ ենք ճանապարհորդում: Եվ «ուժերը» սկսեցին տեղեկություններ հավաքել մեր տարիքի, առողջության, կրթության և սոցիալ -տնտեսական կարգավիճակի մասին:

LinkedIn- ի, Myspace- ի, Facebook- ի, Twitter- ի և բազմաթիվ այլ սոցիալական մեդիայի գործիքների ի հայտ գալով ՝ համացանցը դարձավ «սոցիալական», և «ուժերը» սկսեցին ամեն ինչ իմանալ մեր աշխատանքային պատմության, սոցիալական և գործարար կապերի մասին, և ինչ մեզ դուր է գալիս ՝ մեր սնունդը, ժամանցը, սեռական նախասիրությունները և այլն: Սա այն է, ինչ Ռիդ Հոֆմանը անվանում է Web 3.0:

Բայց Web 3.0 աշխարհում շատ ու շատ ավելին է կատարվում: Դա ոչ միայն «սոցիալական» է:

2009 -ին Նախագահ Օբաման սկսեց մեր առողջապահական համակարգի արդիականացման հավակնոտ ծրագիրը `առողջության բոլոր գրառումները ստանդարտացված և էլեկտրոնային դարձնելու միջոցով: Նպատակն է ունենալ թղթե բժշկական գրառումներ ՝ ԱՄՆ ողջ բնակչության համար, թվայնացված և հասանելի առցանց: Այսպիսով, շտապ օգնության սենյակը անհապաղ մուտք կունենա հիվանդի բժշկական պատմությանը, դեղերի արդյունավետությունը կարող է հետազոտվել մեծ պոպուլյացիաների վրա, իսկ ընդհանուր բժիշկներն ու մասնագետները կարող են համակարգել նրանց բուժումը:

Կառավարությունը նաև Data.gov նախաձեռնությամբ բացում է իր զանգվածային տեղեկատվական հավաքածուները: Չորս հազար տվյալների հավաքածու արդեն հասանելի է, և ամեն շաբաթ ավելանում են ավելին: Դրանք ներառում են պետական ​​ծառայությունների արդյունավետության, աղքատության և հարստության, կրթության, դաշնային կառավարության ծախսերի, տրանսպորտի և այլնի մասին տարածաշրջանային տվյալներ: վայրերը ’ կատարումը. Եվ մենք կարող ենք կառավարությանը ավելի շատ պատասխանատվության ենթարկել ՝ վերլուծելով նրա ծախսերն ու վատնումները:

Ամեն րոպե ավելի քան 24 ժամ տեսանյութ է վերբեռնվում YouTube- ում, և շատ ավելի շատ տեսանյութեր հավաքվում են ամբողջ աշխարհում ՝ տեսախցիկների միջոցով, որոնք տեսնում եք ամենուր: Գիտակցում ենք դա, թե ոչ, մեր բջջային հեռախոսներն ունակ են հետևել մեր յուրաքանչյուր շարժմանը. Տարբեր բջջային հավելվածներ սկսում են գրանցել այդ տվյալները:

Եվ ահա մարդու գենոմը: Մենք միայն սովորեցինք, թե ինչպես դասավորել սա մեկ տասնամյակ առաջ ՝ միլիարդավոր դոլարների արժեքով: Անհատի գենոմի հաջորդականացման գինը նվազում է կրկնակի արագությամբ `միլիոններից մինչև $ 10,000 $ յուրաքանչյուր հաջորդականության համար 2011 թվականին: Նախատեսվում է, որ ավելի քան մեկ միլիոն անհատների հաջորդականացում կլինի 2013 թվականին: Շատ չի անցնի, մինչև գենոմի հաջորդականությունը կարժենա $ 100— կամ անվճար է `ձեր գնած ծառայություններով (ինչպես բջջային հեռախոսներով):

Այժմ պատկերացրեք այն հնարավորությունները, որոնք կարող են առաջանալ այս տվյալների հավաքածուների ինտեգրման հասանելիությունից. Կարողանալ համապատասխանեցնել ձեր ԴՆԹ -ն այլ ’ -երին և իմանալ, թե ինչ հիվանդություններ է ունեցել դիմացինը և որքան արդյունավետ են եղել տարբեր դեղամիջոցները `նրանց դիմացինին սովորելու համար: ունակություններ, ալերգիա, հավանումներ և հակակրանքներ, ով գիտի, գուցե կարողանալով գտնել ԴՆԹ -ի հոգու զույգը: Մենք մտնում ենք ամբոխի, տվյալների վրա հիմնված, մասնակցային, գենոմային հիմքով բժշկության դարաշրջան: (Եթե ձեզ հետաքրքրում է, բժիշկ Դանիել Կրաֆտը, բժիշկ-գիտնական, ով նախագահում է Singularity University- ի Medicine ուղին, հաջորդ ամիս վարում է FutureMed անվանումը կրող ծրագիրը, որը համախմբում է բժիշկներին, արհեստական ​​ինտելեկտի փորձագետներին, կենսաինֆորմատիկոսներին, բժշկական սարքերին և դեղագործությանը: ղեկավարներ, ձեռնարկատերեր և ներդրողներ ՝ քննարկելու այս տեխնոլոգիաները):

Դուք կարող եք մտածել, որ ԱՄՆ -ն առաջատարն է տեղեկատվության հավաքագրման մեջ: Բայց աշխարհի ամենահավակնոտ նախագիծը տեղի է ունենում Հնդկաստանում: Նրա կառավարությունը հավաքում է ժողովրդագրական տվյալներ, մատնահետքեր և ծիածանաթաղանթի սկան իր 1,2 միլիարդ բնակիչներից: Դա կհանգեցնի աշխարհում ինքնության ամենամեծ, ամենաբարդ տվյալների բազայի ստեղծմանը: Այս թեման կանդրադառնամ ապագա հոդվածում:

Դա բոլորը գինի և վարդեր չեն: Կան գաղտնիության և անվտանգության հիմնական հետևանքներ, ինչպիսիք են այն, ինչ ես քննարկեցի այս հոդվածում: Մոռացեք «ուժերը». Պարզապես այն տեղեկությունները, որ այսօր հավաքում է Google- ը, կնախանձի Մեծ եղբորը: Ի վերջո, Google- ը կարող է կարդալ մեր էլ. Պատկերացրեք, թե ինչ է տեղի ունենում, երբ Google- ին հասանելի են դառնում մեր ԴՆԹ -ի տվյալները:

Անկախ ռիսկերից և անվտանգության հետևանքներից, այնուամենայնիվ, տեխնոլոգիան առաջընթաց կունենա:

Պատմության այս շրջանը կոչվել է Տեղեկատվական դարաշրջան, քանի որ այն մատչելի է դարձնում ակնթարթորեն հասանելիություն դեպի գիտելիքներ, որոնք նախկինում դժվար կամ անհնար կլիներ գտնել: Ես կվիճեի, որ մենք շատ ավելին ենք, քան մենք գտնվում ենք նոր դարաշրջանի սկզբում Նոր տեղեկատվական դարաշրջան.

Նախորդ տեխնոլոգիական հեղափոխություններում ծնվեցին այնպիսի ընկերություններ, ինչպիսիք են IBM- ը, Microsoft- ը, Oracle- ը, Google- ը և Facebook- ը: Նման հսկաները խրվում են այն տեխնոլոգիաների մեջ, որոնց օգնությամբ նրանք ստեղծվել են, նրանք լճանում են, քանի որ նրանք չափազանց մեծ գումարներ են վաստակում և վախենում են իրենց հնանալ: Դա հավակնոտ ստարտափներ են, որոնք գալիս են աշխարհը փոխելու համար: Ես քիչ եմ կասկածում, որ հաջորդ Facebook- ը և Google- ն արդեն ինչ -որ տեղ ավտոտնակում են պատրաստվում:

Այս ամենը և շատ ավելին ես քննարկեցի հիմնական midVentures Data 2.0 համաժողովի վերջերս տված հիմնական զեկույցում: Այս տեսանյութը ստորև է, և դուք կարող եք գտնել բազմաթիվ այլ քննարկումներ համաժողովի կայքում:


Հունական մութ դարեր

Հունաստանը դարձել է Միջերկրական ծովի գործունեության և մշակույթի հիմնական հանգույց ուշ բրոնզեդարյան ժամանակաշրջանում: Միկենյան քաղաքակրթությունը հարուստ էր առևտրի նյութական հարստությամբ: Միկենացիները կառուցեցին մեծ պալատներ և խիստ դասակարգային հիերարխիա ունեցող հասարակություն:

Բայց մոտ 1200 թ. Միքենյան Հունաստանը փլուզվեց: Հունաստանը մտավ իրարանցման ժամանակաշրջան, որը երբեմն կոչվում էր հունական մութ դար:

Հնագետները կարծում են, որ հնարավոր է եղել է սովի մի շրջան, որի ընթացքում Հունաստանի բնակչությունը կտրուկ նվազել է այս ընթացքում: Խոշոր քաղաքները (բացառությամբ Աթենքի) լքված էին: Երբ քաղաքային հասարակությունները պառակտվեցին, մարդիկ շարժվեցին դեպի ավելի փոքր, ավելի հովվական խմբեր, որոնք կենտրոնացած էին անասնապահության վրա:

Միկենյան Հունաստանը գրագետ հասարակություն էր, սակայն վաղ երկաթի դարաշրջանի հույները գրավոր գրառում չեն թողել, ինչը որոշ գիտնականների ենթադրել է տվել, որ իրենք անգրագետ են: Մի քանի արտեֆակտ կամ ավերակներ են մնացել այն ժամանակաշրջանից, որը տևել է մոտ 300 տարի:

Արդեն երկաթի դարաշրջանում Հունաստանի տնտեսությունը վերականգնվել էր, և Հունաստանը մտել էր իր դասական շրջանը: Դասական Հունաստանը մշակութային նվաճումների դարաշրջան էր, ներառյալ Պարթենոնը, հունական դրաման և փիլիսոփաները, ներառյալ Սոկրատեսը:

Դասական շրջանը բերեց նաև քաղաքական բարեփոխումներ և աշխարհին ծանոթացրեց կառավարման նոր համակարգի հետ, որը հայտնի է որպես ժողովրդավարություն, կամ ժողովրդի կողմից իշխում: ”


Պատմություն

Թուղթ Գերմանիայում

Թուղթը չինացիները հորինել են մ.թ. Եվրոպայում թղթե արտադրությունն ու արտադրությունը սկսվել են Պիրենեյան թերակղզում, այսօր ՝ Պորտուգալիայում, Իսպանիայում և Սիցիլիայում, 10 -րդ դարում այն ​​ժամանակ բնակվող մուսուլմանների կողմից, և դանդաղորեն տարածվել են Իտալիայում և Հարավային Ֆրանսիայում ՝ հասնելով Գերմանիա 1400 թվականին:

Վերածնունդ

Տպագիր մամուլի գյուտը

Թյուդորի ժամանակաշրջան

Թուդորի շրջանը սովորաբար վերաբերում է 1485-1603 թվականներին ընկած ժամանակահատվածին, մասնավորապես ՝ Անգլիայի և Ուելսի պատմության հետ կապված: Սա համընկնում է Անգլիայում Թյուդորների դինաստիայի կառավարման հետ, որի առաջին միապետը Հենրի VII- ն էր (1457 - 1509): Ամբողջ դարի առումով Գայը (1988) պնդում է, որ «Անգլիան տնտեսապես ավելի առողջ, ավելի ընդարձակ և ավելի լավատես էր Թուդորների օրոք», քան հազար տարվա ընթացքում երբևէ [1]:

Արդիականություն

Ըստ Մարշալ Բերմանի գրքերից մեկի (Բերման 1982, 16–17), արդիականությունը պարբերականացվում է երեք պայմանական փուլերի (համապատասխանաբար անվանվել է Պիտեր Օսբորնի կողմից ՝ համապատասխանաբար, & quot; դասական, & quot և & quot; ուշ, & quot; (1992, 25):
Վաղ արդիականություն. 1500-1789 (կամ 1453-1789 ավանդական պատմագրության մեջ)
Դասական արդիականություն. 1789–1900 (համապատասխան 19 -րդ դարին (1789–1914) Հոբսբաումի սխեմայով)
Ուշ արդիականություն. 1900–1989
Որոշ հեղինակներ, ինչպիսիք են Լյոտարը և Բոդրիարը, կարծում են, որ արդիականությունն ավարտվել է 20-րդ դարի կեսերին կամ վերջին, և այդպիսով սահմանել են արդիականությանը հաջորդող ժամանակաշրջան, այն է.

Լուսավորության դարաշրջան

Լուսավորության դարաշրջանը (կամ պարզապես լուսավորության կամ բանականության դարաշրջանը) մտավորականների մշակութային շարժում էր 17-18 -րդ դարերում, նախ Եվրոպայում, իսկ ավելի ուշ ՝ ամերիկյան գաղութներում: Դրա նպատակն էր բարեփոխել հասարակությունը `օգտագործելով բանականությունը, մարտահրավեր նետել ավանդույթների և հավատքի վրա հիմնված գաղափարներին և գիտական ​​մեթոդով առաջ մղել գիտելիքները: Այն նպաստեց գիտությանը, թերահավատությանը և մտավոր փոխանակմանը և հակադրվեց սնահավատությանը, [1] եկեղեցու և պետության կողմից անհանդուրժողականությանը և որոշ չարաշահումներին:

Արդյունաբերական հեղափոխություն

Արդյունաբերական հեղափոխությունը 1750-1850 թվականների մի շրջան էր, երբ գյուղատնտեսության, արտադրության, հանքարդյունաբերության, փոխադրման և տեխնոլոգիայի փոփոխությունները մեծ ազդեցություն ունեցան ժամանակի սոցիալական, տնտեսական և մշակութային պայմանների վրա: Այն սկսվեց Մեծ Բրիտանիայից, այնուհետև հետագայում տարածվեց ամբողջ Արևմտյան Եվրոպայում, Հյուսիսային Ամերիկայում, ապոնիայում և, ի վերջո, մնացած աշխարհում:

Գոլորշիով աշխատող ճանապարհային մեքենա

Նիկոլաս-Josephոզեֆ Կուգնոտին լայնորեն վերագրվում է այն մասին, որ նա կառուցեց առաջին լիարժեք, ինքնագնաց մեխանիկական մեքենան կամ ավտոմեքենան մոտ 1769 թվականին, նա ստեղծեց գոլորշու շարժիչով եռանիվ հեծանիվ [12]: Նա նաև կառուցեց երկու գոլորշու տրակտոր Ֆրանսիական բանակի համար, որոնցից մեկը պահպանվում է Ֆրանսիայի արվեստների և արհեստների ազգային կոնսերվատորիայում [13]: Նրա գյուտերը, սակայն, հաշմանդամ էին ջրի մատակարարման և գոլորշու ճնշման պահպանման խնդիրներով [13]: 1801 թվականին Ռիչարդ Տրևիթիկը կառուցեց և ցուցադրեց իր Puffing Devil ճանապարհային լոկոմոտիվը, որը շատերի կարծիքով համարվում էր գոլորշու շարժիչով մեքենայի առաջին ցուցադրությունը: Այն ի վիճակի չէր երկար ժամանակ պահել գոլորշու բավարար ճնշում, և քիչ գործնական օգտագործում էր:

Ֆրանսիական հեղափոխություն

Ֆրանսիական հեղափոխություն (ֆր. ՝ Révolution française 1789–1799)

Ռայթ եղբայրների թռիչքները

1903 թվականին Ռայթ եղբայրների թռիչքները ճանաչվում են Fédération Aéronautique Internationale (FAI)-ի կողմից, ավիացիոն նավերի ստանդարտ կարգավորող և գրանցող մարմին, քանի որ օդաչուական օդից ավելի առաջին թռիչքն իրականացվել և վերահսկվել է [14]: 1905 թ. -ին Ռայթ Ֆլայեր III- ը կարող էր զգալիորեն վերահսկվող, կայուն թռիչք կատարել զգալի ժամանակաշրջաններում:

Սառը պատերազմ

Սառը պատերազմը, որը հաճախ թվագրվում էր 1945–1991 թվականներին, արևմտյան աշխարհի տերությունների միջև քաղաքական և ռազմական լարվածության կայուն վիճակ էր, որը գերակշռում էր Միացյալ Նահանգները ՆԱՏՕ -ի և այլ դաշնակիցների հետ ՝ ընդդեմ արևելյան աշխարհի տերությունների, գերակշռում էր Խորհրդային Միությունը նրա Վարշավյան պայմանագիրը և այլ դաշնակիցներ: Խորհրդային Միությունը արբանյակ պետություններ ուներ հատկապես Վարշավայի պայմանագրում ՝ Արևելյան Եվրոպայում, ինչպես նաև Ասիայում [1]:

Լուսնի մակերեսային գործողություններ

Տիեզերագնացները պլանավորում էին տեղադրել Վաղ Ապոլոնի գիտափորձի փաթեթը (EASEP) [23] և ԱՄՆ դրոշը ՝ ուսումնասիրելով իրենց վայրէջքի վայրը Eagle- ի և#39 երկվորյակ պատուհանների միջոցով, ինչը նրանց տալիս էր 60 ° տեսադաշտ: Նախապատրաստումը պահանջում էր ավելի երկար, քան նախատեսված երկու ժամը: Արմսթրոնգը սկզբում որոշ դժվարություններ ուներ իր դյուրակիր կյանքի աջակցության համակարգով (PLSS) լյուկի միջով անցնելիս: Ըստ վետերան լուսնագնաց Johnոն Յանգի, LM- ի վերափոխմանը `ավելի փոքր լյուկ տեղադրելու համար, չի հետևել PLSS ուսապարկի վերափոխում, ուստի Ապոլոն տիեզերագնացներից գրանցված սրտի ամենաբարձր ցուցանիշները տեղի են ունեցել LM ելքի և ներթափանցման ժամանակ: [ 24] [25]

Aldrin bootprint- ը լուսնի ռեգոլիտի հատկությունները ստուգելու փորձի մի մասն է
9ամը 02: 39 -ին UTC երկուշաբթի, 1969 թվականի հուլիսի 21 -ին, Արմսթրոնգը բացեց լյուկը և 02: 51 -ին UTC- ն սկսեց իջնելը դեպի լուսնային մակերես:

1972 թ.-ին Unix- ը վերաշարադրվեց C ծրագրավորման լեզվով, հակառակ այն ժամանակվա ընդհանուր պատկերացմանը և ասաց, որ օպերացիոն համակարգի նման բարդ բան, որը պետք է զբաղվի ժամանակի հետ կապված կարևոր իրադարձություններով, պետք է գրվեր բացառապես հավաքման լեզվով »: [11] Համագումարի լեզվից դեպի ավելի բարձր մակարդակի լեզու C- ն հանգեցրեց շատ ավելի դյուրակիր ծրագրային ապահովման, որը պահանջում էր մեքենայից կախված միայն համեմատաբար փոքր քանակությամբ կոդի փոխարինում, երբ Unix- ը տեղափոխվում էր այլ հաշվիչ հարթակներ:

MITS Altair 8800

MITS Altair 8800- ը 1975 թ. -ից միկրոհամակարգչի դիզայն էր ՝ հիմնված Intel 8080 պրոցեսորի վրա: Հետաքրքրությունն արագորեն աճեց այն բանից հետո, երբ այն հայտնվեց 1975 թվականի հունվար ամսվա Popular Electronics- ի շապիկին և վաճառվեց փոստով ՝ գովազդների միջոցով, Ռադիոէլեկտրոնիկայի և այլ հոբբիստական ​​ամսագրերում: Դիզայներները հույս ունեին վաճառել մի քանի հարյուր հավաքածու, որոնք կարող էին պատրաստել ինքներդ սիրահարներին, և զարմացան, երբ առաջին ամսվա ընթացքում նրանք վաճառեցին հազարավոր [1]: Altair- ը նաև դիմեց այն անհատներին և ձեռնարկություններին, ովքեր պարզապես համակարգիչ էին ուզում և ձեռք բերեցին հավաքված տարբերակը [2]: Այսօր Altair- ը լայնորեն ճանաչվում է որպես կայծ, որը հանգեցրեց հաջորդ միկրոհամակարգչային հեղափոխությանը.

Commodore PET

Հունվար-Աշխարհի առաջին անհատական ​​համակարգիչը (ստեղնաշար/էկրանի/ժապավենի պահեստ) ՝ Commodore PET- ը, ցուցադրվում է Չիկագոյում սպառողական էլեկտրոնիկայի ցուցահանդեսում

IBM համակարգիչ

1981 թվականի օգոստոսի 12 -ին IBM- ը թողարկեց IBM Անձնական համակարգիչը [6]: IBM համակարգիչն օգտագործում էր այն ժամանակվա նոր Intel 8088 պրոցեսորը: Ինչպես մյուս 16-բիթանոց պրոցեսորները, այն կարող էր մուտք գործել մինչև 1 մեգաբայթ օպերատիվ հիշողություն, սակայն հիշողության և ծայրամասային սարքերի համար օգտագործում էր 8-բիթանոց տվյալների տուփ: Այս դիզայնը թույլ տվեց օգտագործել 8-բիթանոց համատեղելի չիպերի մեծ, հեշտությամբ մատչելի և համեմատաբար էժան ընտանիք: IBM- ը որոշեց օգտագործել Intel 8088- ը `առաջին հերթին հաշվի առնելով Motorola 68000- ը և Intel i8086- ը, քանի որ մյուս երկուսը համարվում էին չափազանց հզոր իրենց կարիքների համար [7] [8]: IBM- ի հեղինակությունը բիզնեսի հաշվարկում, զուգորդված երրորդ կողմի ծայրամասային սարքավորումների արագ շուկայի և այլ վաճառողներից IBM PC- ի համատեղելիության ավելի ուշ ներդրման հետ, IBM համակարգչի ճարտարապետությանը թույլ տվեց զբաղվել բիզնես ծրագրերի շուկայական զգալի մասնաբաժնով [9]:

Ազատ ծրագրային ապահովման հիմնադրամ

Հոկտեմբերի 4 - ԱՄՆ Մասաչուսեթս նահանգում հիմնադրվեց Ազատ ծրագրային ապահովման հիմնադրամը:

Պոստմոդեռնիզմ

Պոստմոդեռնիզմ (1930 -ականներ/1950 -ականներ/1990 -ականներ -այժմ): Այլ տեսաբաններ, այնուամենայնիվ, 20 -րդ դարավերջից մինչև մեր օրերն ընկած ժամանակահատվածը համարում են պարզապես արդիականության մեկ այլ փուլ, որը Բաումանն անվանում է «փուլ» ՝ «հեղուկ» արդիականություն, Գիդենսը այն անվանում է «բարձրագույն» արդիականություն (տես հետմոդեռնիզմի նկարագրությունները):

Գիտելիքի տնտեսություն

Գիտելիքի տնտեսությունը դիտվում է նաև որպես համաշխարհային տնտեսական վերակազմավորման զարգացման վերջին փուլ: Մինչ այժմ զարգացած աշխարհն անցել է գյուղատնտեսությունից (նախաինդուստրիալ դարաշրջան, հիմնականում ագրարային հատված) արդյունաբերական տնտեսության (արդյունաբերական դարաշրջանի հետ, հիմնականում ՝ արդյունաբերական հատվածի) հետինդուստրիալ/զանգվածային արտադրության տնտեսության (1900-ականների կեսեր, հիմնականում ծառայությունների ոլորտ) դեպի գիտելիքի տնտեսություն (1900 -ականների վերջ - 2000 -ականներ, մեծ մասամբ տեխնոլոգիա/մարդկային կապիտալի հատված): Այս վերջին փուլը նշանավորվեց տեխնոլոգիական նորամուծությունների ցնցումներով և նորարարության գլոբալ մրցակցային անհրաժեշտությամբ `նոր արտադրանքներով և գործընթացներով, որոնք զարգանում են հետազոտական ​​համայնքից (օրինակ ՝ R & ampD գործոններ, համալսարաններ, լաբորատորիաներ, կրթական ինստիտուտներ):

Համացանց

1974 -ի դեկտեմբերին, RFC 675 - Ինտերնետի փոխանցման վերահսկման ծրագրի բնութագիրը, Վինտոն Սերֆի, Յոգեն Դալալի և Կառլ Սանշայնի կողմից, օգտագործեց ինտերնետ տերմինը, որպես ինտերնետային աշխատանքի սղագրություն: քան գոյականն է այսօր [16]: ARPANET- ի հասանելիությունն ընդլայնվեց 1981 թվականին, երբ Գիտության ազգային հիմնադրամը (NSF) մշակեց Համակարգչային գիտության ցանցը (CSNET): 1982 թ.-ին ստանդարտացվեց ինտերնետային արձանագրությունների հավաքածուն (TCP/IP) և ներդրվեց ամբողջովին փոխկապակցված TCP/IP ցանցերի համաշխարհային համացանցի հայեցակարգը:
TCP/IP ցանցի հասանելիությունը կրկին ընդլայնվեց 1986 թվականին, երբ National Science Foundation Network- ը (NSFNET) հետազոտական ​​և կրթական կազմակերպություններից մուտք գործեց Միացյալ Նահանգների գերհամակարգչային կայքեր ՝ սկզբում 56 կբիթ/վրկ, իսկ ավելի ուշ ՝ 1.5 Մբիթ/վրկ և 45 Մբիթ/ ս. [17] Առևտրային ինտերնետ ծառայություններ մատուցողները (ISP) սկսեցին ի հայտ գալ 1980 -ականների վերջին և 1990 -ականների սկզբին: ARPANET- ը շահագործումից հանվեց 1990 -ին: Ինտերնետը կոմերցիոնացվեց 1995 -ին, երբ NSFNET- ը շահագործումից հանվեց ՝ հանելով առևտրային տրաֆիկ փոխադրելու ինտերնետից օգտվելու վերջին սահմանափակումները:

Վիքիպեդիա

Վիքիպեդիան գործարկվել է 2001 թվականի հունվարի 15 -ին Jimիմի Ուելսի և Լարի Սանգերի կողմից [13]: Սենգերը ստեղծեց Վիքիպեդիա անունը [14], որը հանդիսանում է վիքիի փոխադրող (համագործակցային կայքի տեսակ, հավայայական վիքի բառից, որը նշանակում է & quotquick & quot) [15] և հանրագիտարան: Վիքիպեդիայի ՝ հանրագիտարանաշինության փորձառու ոճից շեղումը և ոչ ակադեմիական բովանդակության մեծ զանգվածի առկայությունը մեծ ուշադրություն են դարձրել տպագիր մամուլում: 2006 թվականին Time ամսագիրը ճանաչեց Վիքիպեդիայի մասնակցությունը ամբողջ աշխարհում միլիոնավոր մարդկանց առցանց համագործակցության և փոխազդեցության արագ աճին, բացի YouTube- ից, MySpace- ից և Facebook- ից [16]: Վիքիպեդիան նաև գովասանքի է արժանացել որպես նորությունների աղբյուր ՝ հաճախակի թարմացվող հոդվածներին առնչվող հոդվածների պատճառով [17] [18] [19]:

Ֆեյսբուք

Facebook- ը սոցիալական ցանցերի ծառայություն է, որը գործարկվել է 2004 թվականի փետրվարին, և պատկանում և ղեկավարվում է Facebook, Inc.- ի կողմից [5]: 2012 թվականի սեպտեմբեր ամսվա դրությամբ Facebook- ն ունի ավելի քան մեկ միլիարդ ակտիվ օգտվող, [6] նրանցից կեսից ավելին օգտագործում են Facebook- ը բջջային սարքով [7]: Օգտագործողները պետք է գրանցվեն կայքից օգտվելուց առաջ, որից հետո նրանք կարող են ստեղծել անձնական անձնագիր, ընկերներ ավելացնել այլ օգտվողների և փոխանակել հաղորդագրություններ, ներառյալ ավտոմատ ծանուցումները, երբ թարմացնեն իրենց պրոֆիլը: Բացի այդ, օգտվողները կարող են միանալ ընդհանուր շահերի օգտագործողների խմբերին, որոնք կազմակերպվում են ըստ աշխատավայրի, դպրոցի կամ քոլեջի կամ այլ բնութագրերի, և դասակարգում են իրենց ընկերներին այնպիսի ցուցակների մեջ, ինչպիսիք են & quotPeople From Work & quot; կամ & quotCose Friends & quot;

Twitter

Twitter- ը սոցիալական ցանցերի և միկրոբլոգների առցանց ծառայություն է, որը հնարավորություն է տալիս իր օգտվողներին ուղարկել և կարդալ մինչև 140 նիշ ունեցող տեքստային հաղորդագրություններ, որոնք հայտնի են որպես & quottweets & quot:
Այն ստեղծվել է 2006 թվականի մարտին Jackեք Դորսիի կողմից և մեկնարկել է այդ հուլիսին


Theամանակի 3 ամենամեծ տեխնոլոգիական գյուտերը և այն լաբորատորիաները, որոնցում դրանք հայտնաբերվել են

Տեխնոլոգիական առաջընթացը հասել է հասարակության նորմերի սահմանմանը, բայց որտե՞ղ են այդ նորամուծություններից մի քանիսը մտածվել:

Գիտական ​​լաբորատորիաները եղել են մարդկության պատմության ամենահուզիչ և նշանակալի հայտնագործությունների հիմքը: Բժշկական հետազոտությունների խոշոր նվաճումներից մինչև տեխնոլոգիական կտրուկ նվաճումներ, դրանք ամրապնդեցին մեր գիտելիքները մի շարք ոլորտներում:

Իհարկե, այդ միջավայրերի տեսքն ու զգացումը կարող են կտրուկ տարբերվել ՝ կախված դրանցում տեղի ունեցող հետազոտության բնույթից: Ինչպես նշում են Innova Design Solutions- ը, լաբորատորիայի տեղադրման փորձագետները նշում են, որ էական է լաբորատորիաների դիզայնը հարմարեցնել այնպես, որ դրանք բավարարեն դրանք օգտագործող մարդկանց հատուկ կարիքները:

Ամրապնդելով այս կետը ՝ ահա մեր ժամանակների երեք ամենամեծ գյուտերը և դրանցում հայտնաբերված շատ տարբեր լաբորատորիաները:

1. ԴՆԹ մատնահետք

ԴՆԹ -ի մատնահետքերն այժմ ընդունված են համարվում: Անկախ նրանից, թե քրեական դատավարություններում, հայրության և ծննդաբերության թեստերում, անձի նույնականացման մեջ կամ ժառանգական հիվանդությունների ախտորոշման կամ բուժման մեջ, մարդիկ օգտագործվում են այս տեխնիկայից օգտվելու համար:

Այն գիտնականներին հնարավորություն է տալիս համեմատել մարդկային գենոմի ավելի քան երեք միլիարդ միավորի այն մասերը, որոնք ցույց են տալիս մարդկանց միջև ամենաշատ տատանումները:

Մոտեցումը պատահաբար հայտնաբերեց մոլեկուլային կենսաբան Ալեք ffեֆրիսը 1984 թվականին: Նա աշխատում էր մի տեխնիկայի վրա, որը հույս ուներ, որ կօգնի իրեն ուսումնասիրել ժառանգական հիվանդություններ, ինչպիսիք են կիստայական ֆիբրոզը:

According to Jeffreys, he had a “eureka moment” when observing an X-ray film of a DNA experiment which unexpectedly revealed similarities and differences between the DNA of members of one of his technician’s family.

His university lab may have been fairly conventional, but what he did with it over the next couple of days was anything but. He and his staff had realised that DNA profiling could potentially be used at crime scenes, but they weren’t sure if it would be possible to take useable DNA samples from dead cells.

To test this, Jeffreys effectively turned his lab into the first ever setting for a crime scene DNA analysis. He spent two days cutting himself and leaving bloodstains on surfaces. These marks were then tested and the team proved the DNA was intact.

2. The internet

Sometimes, scientists like to escape the confines of a traditional lab and take their experiments into the field – or even into the pub.

In fact, one of these more unorthodox settings was used for a essential experiment in the history of the internet.

Of course, this communication network wasn’t invented in one experiment. It took decades for it to be transformed from its original incarnation, which was a network used by the military, into the vast global system we’re familiar with today.

However, there were a number of pivotal moments along the way, and one of the most significant occurred in a beer garden in Palo Alto, California.

In August 1976, a team of scientists from the Stanford Research Institute set up a computer terminal on a table around the back of the popular bar Rossotti’s.

While sipping beer from plastic cups in the California sunshine, the pioneering researchers conducted what can be described as the first internet transmission (via a mobile radio lab housed in a van in the car park). Their experiment in this makeshift open air lab helped to prove that the technology could work.

3. Wireless electricity

From smartphones, to laptops, to MP3 players, people’s lives are now dominated by technology that requires power – and they generally need wires to recharge these devices.

However, this may not be the case for much longer. In 2007, Professor Marin Soljačić from the Massachusetts Institute of Technology (MIT) had the idea of transferring power from wired infrastructure to devices using magnetic fields.

With his team at MIT, he set up a ground breaking lab experiment consisting of two copper wire coils, each suspended with a nylon thread. One of the coils was connected to an AC power supply, the other to a light bulb.

As the team predicted, when electricity was supplied to the first coil, this caused the light bulb connected to the other coil to light up – despite the fact the two coils were not connected.

To highlight the safety of the system, the scientists even had their picture taken sitting between the power source and power capture coils as the 60 watts of electricity were being transferred.

Following the successful experiment, a company called WiTricity was formed to take the research forward from the labs at MIT. It is working on a range of systems that can power devices up to eight feet away, including computers and even electric vehicles.

The company predicts that the technology will eventually be able to power many household appliances and gadgets.

From a conventional lab, to an impromptu crime scene, to a Californian beer garden, these examples show how varied the research settings of important discoveries and inventions can be.


About Information Age

We provide general intelligence for technologists in the information age.

We support CTOs, CIOs and other technology leaders in managing business critical issues both for today and in the future.

Information Age supports its growing community of CTO and technology leaders with its:

  • Online portal information-age.com which provides the latest news, analysis, guidance and research for our CTO community.
  • Live events program comprising a range of events to facilitate networking between CTOs and technology leaders, create forums for sharing best practice in the sector, and provide opportunities to celebrate the achievements of our CTO community. Our events include the Data Leadership Summit & Data Leaders Awards and Tech Leaders Summit & Awards. We also champion women in the technology sector with our Women in IT Awards series in the UK and USA (the largest technology diversity event series in the world), Tomorrow’s Tech Leaders Today careers fair and the Future Stars of Tech awards.

Our history

Information Age was founded in 1995 as a print magazine. The brand launched a website in 2001 and evolved into a fully digital proposition in 2017. The Data Leadership Summit was launched in 2011, expanding into the awards event, together with the launch of the Tech Leaders Summit, the following year. The Tech Leaders Awards was launched in 2017.

Get involved

Sign up for our weekly newsletter to receive insight, analysis and guidance on the latest news and technology trends impacting the CTO.


For the past few weeks in History of the Information Age, each student has been working on two entries on topics relevant to the Information Age to add to a class timeline. For my two entries, I chose to learn about Apple’s 1980s “Kid’s Can’t Wait” program, and the advent of EchoNYC, an early online&hellip Read More HIST 427: Information Age Timeline Entries

This week in History of the Information Age, we discussed a brief history of communication technology, cyber bullying in the age of social media, and the dark and deep web. Cyber Bullying Admittedly, when I saw that we were assigned readings on cyber bulling and social media, I was worried that I was about to&hellip Read More HIST 427: Cyber Bullying and the Dark Web


Beyond the Information Age

Image: infocux Technologies/Flickr

We live in the information age, which according to Wikipedia is a period in human history characterized by the shift from industrial production to one based on information and computerization.

Nothing surprising there, except for the idea that this is “a period in human history” — which tends to suggest it will come to an end at some point. The industrial revolution in the late nineteenth century ushered in the industrial age, and the digital revolution in the mid twentieth century spurred the emergence of the information age. So it is not entirely crazy to speculate about what might lie beyond the information age.

Of course, I am not arguing that information will become obsolete. Firms will always need to harness information in effective ways, just as most of them still need industrial techniques to make their products cheaply and efficiently. My point, instead, is that information will become necessary but not sufficient for firms to be successful. All this talk of “big data,” for example, feels like an attempt to strain a few more drops of juice out of an already-squeezed orange, just as Six Sigma was a way of squeezing more value out of the quality revolution. Both are valuable concepts, but their benefits are incremental, not revolutionary.

So just as night follows day, the information age will eventually be superseded by another age and it behooves those with senior executive responsibility to develop a point of view on what that age might look like.

So here is a specific question that helps us develop this point of view — one that was a topic of debate at our annual Global Leadership Summit at London Business School, focused this year on the rapid advance of technology and its impact on not only business, but society, politics and the economy: What would a world with too much information look like? And what problems would it create? I think there are at least four answers:

1. Paralysis through Analysis. In a world of ubiquitous information, there is always more out there. Information gathering is easy, and often quite enjoyable as well. My students frequently complain that they need more information before coming to a view on a difficult case-study decision. Many corporate decisions are delayed because of the need for further analysis. Whether due to the complexity of the decision in front of them, or because of the fear of not performing sufficient due diligence, the easy option facing any executive is simply to request more information.

2. Easy access to data makes us intellectually lazy. Many firms have invested a lot of money in “big data” and sophisticated data-crunching techniques. But a data-driven approach to analysis has a couple of big flaws. First, the bigger the database, the easier it is to find support for any hypothesis you choose to test. Second, big data makes us lazy – we allow rapid processing power to substitute for thinking and judgment. One example: pharmaceutical companies fell in love with “high throughput screening” techniques in the 1990s, as a way of testing out all possible molecular combinations to match a target. It was a bust. Most have now moved back towards a more rational model based around deep understanding, experience and intuition.

3. Impulsive and Flighty Consumers. Watch how your fellow commuters juggle their smartphone, tablet and Kindle. Or marvel at your teenager doing his homework. With multiple sources of stimulation available at our fingertips, the capacity to focus and concentrate on a specific activity is falling. This has implications for how firms manage their internal processes – with much greater emphasis being placed on holding people’s attention than before. It also has massive consequences for how firms manage their consumer relationships, as the traditional sources of “stickiness” in those relationships are being eroded.

4. A little learning is a dangerous thing. We are quick to access information that helps us, but we often lack the ability to make sense of it, or to use it appropriately. Doctors encounter this problem on a daily basis, as patients show up with (often incorrect) self-diagnoses. Senior executives second-guess their subordinates because their corporate IT system gives them line-of-sight down to detailed plant-level data. We also see this at a societal level: people believe they have the right to information that is in the public interest (think Wikileaks), but they are rarely capable of interpreting and using it in a sensible way. The broader point here is that the democratization of information creates an imbalance between the “top” and “bottom” of society, and most firms are not good at coping with this shift.

Consequences

So what are the consequences of a business world with “too much information”? At an individual level, we face two contrasting risks. One is that we become obsessed with getting to the bottom of a problem, and we keep on digging, desperate to find the truth but taking forever to do so. The other risk is that we become overwhelmed with the amount of information out there and we give up: we realise we cannot actually master the issue at hand, and we end up falling back on a pre-existing belief.

For firms, there are three important consequences. First, they have to become masters of “attention management” — making sure that people are focused on the right set of issues, and not distracted by the dozens of equally-interesting issues that could be discussed. A surplus of , as Nobel Laureate Herbert Simon noted, creates a deficit of attention. That is the real scarce resource today.

Second, firms have to get the right balance between information and judgment in making important decisions. As Jeff Bezos, founder and CEO of Amazon, observed, there are two types of decisions: “There are decisions that can be made by analysis. These are the best kind of decisions. They are fact-based decisions that overrule the hierarchy. Unfortunately there’s this whole other set of decisions you can’t boil down to a math problem.” One of the hallmarks of Amazon’s success, arguably, has been its capacity to make the big calls based on judgement and intuition.

Finally, the ubiquity of information means a careful balance is needed when it comes to sharing. Keeping everything secret isn’t going to work anymore — but pure transparency has its risks as well. Firms have to become smarter at figuring out what information to share with their employees, and what consumer information to keep track of for their own benefits.

For the last forty years, firms have built their competitive positions on harnessing information and knowledge more effectively than others. But with information now ubiquitous and increasingly shared across firms, these traditional sources of advantage are simply table-stakes. The most successful companies in the future will be smart about scanning for information and accessing the knowledge of their employees, but they will favour action over analysis, and they will harness the intuition and gut-feeling of their employees in combination with rational analysis.

Julian Birkinshaw is Professor and Chair of Strategy and Entrepreneurship at the London Business School.


Բովանդակություն

Brief history Edit

The underlying technology was invented in the later quarter of the 19th century, including Babbage's Analytical Engine and the telegraph. Digital communication became economical for widespread adoption after the invention of the personal computer. Claude Shannon, a Bell Labs mathematician, is credited for having laid out the foundations of digitalization in his pioneering 1948 article, A Mathematical Theory of Communication. [5] The digital revolution converted technology from analog format to digital format. By doing this, it became possible to make copies that were identical to the original. In digital communications, for example, repeating hardware was able to amplify the digital signal and pass it on with no loss of information in the signal. Of equal importance to the revolution was the ability to easily move the digital information between media, and to access or distribute it remotely.

The turning point of the revolution was the change from analogue to digitally recorded music. [6] During the 1980s the digital format of optical compact discs gradually replaced analog formats, such as vinyl records and cassette tapes, as the popular medium of choice. [7]

1947–1969: Origins Edit

In 1947, the first working transistor, the germanium-based point-contact transistor, was invented by John Bardeen and Walter Houser Brattain while working under William Shockley at Bell Labs. [8] This led the way to more advanced digital computers. From the late 1940s, universities, military, and businesses developed computer systems to digitally replicate and automate previously manually performed mathematical calculations, with the LEO being the first commercially available general-purpose computer.

Other important technological developments included the invention of the monolithic integrated circuit chip by Robert Noyce at Fairchild Semiconductor in 1959 [9] (made possible by the planar process developed by Jean Hoerni), [10] the first successful metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor) by Mohamed Atalla and Dawon Kahng at Bell Labs in 1959, [11] and the development of the complementary MOS (CMOS) process by Frank Wanlass and Chih-Tang Sah at Fairchild in 1963. [12]

Following the development of MOS integrated circuit chips in the early 1960s, MOS chips reached higher transistor density and lower manufacturing costs than bipolar integrated circuits by 1964. MOS chips further increased in complexity at a rate predicted by Moore's law, leading to large-scale integration (LSI) with hundreds of transistors on a single MOS chip by the late 1960s. The application of MOS LSI chips to computing was the basis for the first microprocessors, as engineers began recognizing that a complete computer processor could be contained on a single MOS LSI chip. [13] In 1968, Fairchild engineer Federico Faggin improved MOS technology with his development of the silicon-gate MOS chip, which he later used to develop the Intel 4004, the first single-chip microprocessor. [14] It was released by Intel in 1971, and laid the foundations for the microcomputer revolution that began in the 1970s.

MOS technology also led to the development of semiconductor image sensors suitable for digital cameras. [15] The first such image sensor was the charge-coupled device, developed by Willard S. Boyle and George E. Smith at Bell Labs in 1969, [16] based on MOS capacitor technology. [15]

1969–1989: Invention of the Internet, rise of home computers Edit

The public was first introduced to the concepts that led to the Internet when a message was sent over the ARPANET in 1969. Packet switched networks such as ARPANET, Mark I, CYCLADES, Merit Network, Tymnet, and Telenet, were developed in the late 1960s and early 1970s using a variety of protocols. The ARPANET in particular led to the development of protocols for internetworking, in which multiple separate networks could be joined together into a network of networks.

The Whole Earth movement of the 1960s advocated the use of new technology. [17]

In the 1970s, the home computer was introduced, [18] time-sharing computers, [19] the video game console, the first coin-op video games, [20] [21] and the golden age of arcade video games began with Space Invaders. As digital technology proliferated, and the switch from analog to digital record keeping became the new standard in business, a relatively new job description was popularized, the data entry clerk. Culled from the ranks of secretaries and typists from earlier decades, the data entry clerk's job was to convert analog data (customer records, invoices, etc.) into digital data.

In developed nations, computers achieved semi-ubiquity during the 1980s as they made their way into schools, homes, business, and industry. Automated teller machines, industrial robots, CGI in film and television, electronic music, bulletin board systems, and video games all fueled what became the zeitgeist of the 1980s. Millions of people purchased home computers, making household names of early personal computer manufacturers such as Apple, Commodore, and Tandy. To this day the Commodore 64 is often cited as the best selling computer of all time, having sold 17 million units (by some accounts) [22] between 1982 and 1994.

In 1984, the U.S. Census Bureau began collecting data on computer and Internet use in the United States their first survey showed that 8.2% of all U.S. households owned a personal computer in 1984, and that households with children under the age of 18 were nearly twice as likely to own one at 15.3% (middle and upper middle class households were the most likely to own one, at 22.9%). [23] By 1989, 15% of all U.S. households owned a computer, and nearly 30% of households with children under the age of 18 owned one. [24] By the late 1980s, many businesses were dependent on computers and digital technology.

Motorola created the first mobile phone, Motorola DynaTac, in 1983. However, this device used analog communication - digital cell phones were not sold commercially until 1991 when the 2G network started to be opened in Finland to accommodate the unexpected demand for cell phones that was becoming apparent in the late 1980s.

Compute! magazine predicted that CD-ROM would be the centerpiece of the revolution, with multiple household devices reading the discs. [25]

The first true digital camera was created in 1988, and the first were marketed in December 1989 in Japan and in 1990 in the United States. [26] By the mid-2000s, they had eclipsed traditional film in popularity.

Digital ink was also invented in the late 1980s. Disney's CAPS system (created 1988) was used for a scene in 1989's The Little Mermaid and for all their animation films between 1990's The Rescuers Down Under and 2004's Home on the Range.

1989–2005: Invention of the World Wide Web, mainstreaming of the Internet, Web 1.0 Edit

The first public digital HDTV broadcast was of the 1990 World Cup that June it was played in 10 theaters in Spain and Italy. However, HDTV did not become a standard until the mid-2000s outside Japan.

The World Wide Web became publicly accessible in 1991, which had been available only to government and universities. [27] In 1993 Marc Andreessen and Eric Bina introduced Mosaic, the first web browser capable of displaying inline images [28] and the basis for later browsers such as Netscape Navigator and Internet Explorer. Stanford Federal Credit Union was the first financial institution to offer online internet banking services to all of its members in October 1994. [29] In 1996 OP Financial Group, also a cooperative bank, became the second online bank in the world and the first in Europe. [30] The Internet expanded quickly, and by 1996, it was part of mass culture and many businesses listed websites in their ads. By 1999 almost every country had a connection, and nearly half of Americans and people in several other countries used the Internet on a regular basis. However throughout the 1990s, "getting online" entailed complicated configuration, and dial-up was the only connection type affordable by individual users the present day mass Internet culture was not possible.

In 1989 about 15% of all households in the United States owned a personal computer. [ անհրաժեշտ է մեջբերում ]

% [31] for households with children nearly 30% owned a computer in 1989, and in 2000 65% owned one.

Cell phones became as ubiquitous as computers by the early 2000s, with movie theaters beginning to show ads telling people to silence their phones. They also became much more advanced than phones of the 1990s, most of which only took calls or at most allowed for the playing of simple games.

Text messaging existed in the 1990s but was not widely used until the early 2000s, when it became a cultural phenomenon.

The digital revolution became truly global in this time as well - after revolutionizing society in the developed world in the 1990s, the digital revolution spread to the masses in the developing world in the 2000s.

By 2000, a majority of U.S. households had at least one personal computer and internet access the following year. [32] In 2002, a majority of U.S. survey respondents reported having a mobile phone. [33]

2005–present: Web 2.0, social media, smartphones, digital TV Edit

In late 2005 the population of the Internet reached 1 billion, [34] and 3 billion people worldwide used cell phones by the end of the decade. HDTV became the standard television broadcasting format in many countries by the end of the decade. In September and December 2006 respectively, Luxembourg and the Netherlands became the first countries to completely transition from analog to digital television. In September 2007, a majority of U.S. survey respondents reported having broadband internet at home. [35]

By 2012, over 2 billion people used the Internet, twice the number using it in 2007. Cloud computing had entered the mainstream by the early 2010s. In January 2013, a majority of U.S. survey respondents reported owning a smartphone. [36] By 2016, half of the world's population was connected [37] and as of 2020, that number has risen to 67%. [38]

In the late 1980s, less than 1% of the world's technologically stored information was in digital format, while it was 94% in 2007, with more than 99% by 2014. [39]

It is estimated that the world's capacity to store information has increased from 2.6 (optimally compressed) exabytes in 1986, to some 5,000 exabytes in 2014 (5 zettabytes). [39] [40]

1990 Edit

  • Cell phone subscribers: 12.5 million (0.25% of world population in 1990) [41]
  • Internet users: 2.8 million (0.05% of world population in 1990) [42]

2000 Edit

  • Cell phone subscribers: 1.5 billion (19% of world population in 2002) [42]
  • Internet users: 631 million (11% of world population in 2002) [42]

2010 Edit

  • Cell phone subscribers: 4 billion (68% of world population in 2010) [43]
  • Internet users: 1.8 billion (26.6% of world population in 2010) [37]

2020 Edit

  • Cell phone subscribers: 4.78 billion (62% of world population in 2020) [44]
  • Internet users: 4.54 billion (59% of world population in 2020) [45]

Conversion of below analog technologies to digital. (The decade indicated is the period when digital became dominant form.)

    to digital computer (1950s) to fax (1980s) , gramophone record and compact cassette to compact disc (1980s and 1990s, although sales of vinyl records have increased again in the 2010s among antique collectors) to DVD (2000s)
  • Analog photography (photographic plate and photographic film) to digital photography (2000s)
  • Analog cinematography (film stock) to digital cinematography (2010s)

Decline or disappearance of below analog technologies:

Disappearance of other technologies also attributed to digital revolution. (Analog–digital classification doesn't apply to these.)

Improvements in digital technologies.

    to laptop to tablet computer to Blu-ray Disc to 4K Blu-ray Disc to 3G to 4G to 5G to smartphone (2010s)
  • Digital watch to smartwatch
  • Analog weighing scale to digital weighing scale

The basic building block of the Digital Revolution is the metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor), [46] which is the most widely manufactured device in history. [47] It is the basis of every microprocessor, memory chip and telecommunication circuit in commercial use. [48] MOSFET scaling (rapid miniaturization of MOS transistors) has been largely responsible for enabling Moore's law, which predicted that transistor counts would increase at an exponential pace. [49] [50] [51]

Following the development of the digital personal computer, MOS microprocessors and memory chips, with their steadily increasing performance and storage, have enabled computer technology to be embedded into a huge range of objects from cameras to personal music players. Also important was the development of transmission technologies including computer networking, the Internet and digital broadcasting. 3G phones, whose social penetration grew exponentially in the 2000s, also played a very large role in the digital revolution as they simultaneously provide ubiquitous entertainment, communications, and online connectivity.

Positive aspects include greater interconnectedness, easier communication, and the exposure of information that in the past could have more easily been suppressed by totalitarian regimes. Michio Kaku wrote in his books Physics of the Future that the failure of the Soviet coup of 1991 was due largely to the existence of technology such as the fax machine and computers that exposed classified information.

The Revolutions of 2011 were enabled by social networking and smartphone technology however these revolutions in hindsight largely failed to reach their goals as hardcore Islamist governments and in Syria a civil war have formed in the absence of the dictatorships that were toppled.

The economic impact of the digital revolution has been wide-ranging. Without the World Wide Web (WWW), for example, globalization and outsourcing would not be nearly as feasible as they are today. The digital revolution radically changed the way individuals and companies interact. Small regional companies were suddenly given access to much larger markets. Concepts such as on-demand software services and manufacturing and rapidly dropping technology costs made possible innovations in all aspects of industry and everyday life.

After initial concerns of an IT productivity paradox, evidence is mounting that digital technologies have significantly increased the productivity and performance of businesses. [52]

The Digital transformation allowed technology to continuously adapt which resulted in a boost in the economy with an increase of productivity. With the increase of technical advances, digital revolution has created a demand for new job skills. Economically, retailers, trucking companies and banks have transitioned into digital format. In addition, the introduction of cryptocurrency like Bitcoin creates faster and secure transactions. [53]

Negative effects include information overload, Internet predators, forms of social isolation, and media saturation. In a poll of prominent members of the national news media, 65 percent said the Internet is hurting journalism more than it is helping [54] by allowing anyone no matter how amateur and unskilled to become a journalist causing information to be muddier and the rise of conspiracy theory in a way it didn't exist in the past.

In some cases, company employees' pervasive use of portable digital devices and work related computers for personal use—email, instant messaging, computer games—were often found to, or perceived to, reduce those companies' productivity. Personal computing and other non-work related digital activities in the workplace thus helped lead to stronger forms of privacy invasion, such as keystroke recording and information filtering applications (spyware and content-control software).

Information sharing and privacy Edit

Privacy in general became a concern during the digital revolution. The ability to store and utilize such large amounts of diverse information opened possibilities for tracking of individual activities and interests. Libertarians and privacy rights advocates feared the possibility of an Orwellian future where centralized power structures control the populace via automatic surveillance and monitoring of personal information in such programs as the CIA's Information Awareness Office. [55] Consumer and labor advocates opposed the ability to direct market to individuals, discriminate in hiring and lending decisions, invasively monitor employee behavior and communications and generally profit from involuntarily shared personal information.

The Internet, especially the WWW in the 1990s, opened whole new avenues for communication and information sharing. The ability to easily and rapidly share information on a global scale brought with it a whole new level of freedom of speech. Individuals and organizations were suddenly given the ability to publish on any topic, to a global audience, at a negligible cost, particularly in comparison to any previous communication technology.

Large cooperative projects could be endeavored (e.g. Open-source software projects, [email protected]). Communities of like-minded individuals were formed (e.g. MySpace, Tribe.net). Small regional companies were suddenly given access to a larger marketplace.

In other cases, special interest groups as well as social and religious institutions found much of the content objectionable, even dangerous. Many parents and religious organizations, especially in the United States, became alarmed by pornography being more readily available to minors. In other circumstances the proliferation of information on such topics as child pornography, building bombs, committing acts of terrorism, and other violent activities were alarming to many different groups of people. Such concerns contributed to arguments for censorship and regulation on the WWW.

Copyright and trademark issues Edit

Copyright and trademark issues also found new life in the digital revolution. The widespread ability of consumers to produce and distribute exact reproductions of protected works dramatically changed the intellectual property landscape, especially in the music, film, and television industries.

The digital revolution, especially regarding privacy, copyright, censorship and information sharing, remains a controversial topic. As the digital revolution progresses it remains unclear to what extent society has been impacted and will be altered in the future.

With the advancement of digital technology Copyright infringements will become difficult to detect. They will occur more frequently, will be difficult to prove and the public will continue to find loopholes around the law. Digital recorders for example, can be used personally and private use making the distributions of copywritten material discreet. [56]

While there have been huge benefits to society from the digital revolution, especially in terms of the accessibility of information, there are a number of concerns. Expanded powers of communication and information sharing, increased capabilities for existing technologies, and the advent of new technology brought with it many potential opportunities for exploitation. The digital revolution helped usher in a new age of mass surveillance, generating a range of new civil and human rights issues. Reliability of data became an issue as information could easily be replicated, but not easily verified. For example, the introduction of Cryptocurrency, opens possibility for illegal trade, such as the sale of drugs, guns and black market transaction. [53] The digital revolution made it possible to store and track facts, articles, statistics, as well as minutiae hitherto unfeasible.

From the perspective of the historian, a large part of human history is known through physical objects from the past that have been found or preserved, particularly in written documents. Digital records are easy to create but also easy to delete and modify. Changes in storage formats can make recovery of data difficult or near impossible, as can the storage of information on obsolete media for which reproduction equipment is unavailable, and even identifying what such data is and whether it is of interest can be near impossible if it is no longer easily readable, or if there is a large number of such files to identify. Information passed off as authentic research or study must be scrutinized and verified. [ անհրաժեշտ է մեջբերում ]

These problems are further compounded by the use of digital rights management and other copy prevention technologies which, being designed to only allow the data to be read on specific machines, may well make future data recovery impossible. The Voyager Golden Record, which is intended to be read by an intelligent extraterrestrial (perhaps a suitable parallel to a human from the distant future), is recorded in analog rather than digital format specifically for easy interpretation and analysis.


Դիտեք տեսանյութը: Պատրաստվում է նոր խայտառակ փաստաթուղթ. Սերժ Սարգսյանը Նիկոլ Վովաևիչի մղձավանջն է. Հայկ Մամիջանյան (Հունիսի 2022).