Fréttir um gervigreind 4. mars 2026

Yfirlit yfir fréttir um gervigreind: 4. mars 2026

🏛️ Ríkisstjórnin ætlar að stofna nýja rannsóknarstofu til að halda Bretlandi á hraðbrautinni í byltingarkenndum gervigreindarframleiðslu

Bretland er að setja á laggirnar ríkisstyrkta rannsóknarstofu fyrir grundvallarrannsóknir á gervigreind og kynnir hana sem „vinnu án fyrirhafnar“ - þá tegund sem er áhættusöm, hægfara og borgar sig stundum á þann hátt að allir aðrir líta út eins og þeir hafi dottið út. ( GOV.UK )

Áherslan er ekki bara á „stærri líkön, fleiri skjákort“ - heldur er verið að takast á við viðvarandi galla eins og ofskynjanir, stutt minni og ófyrirsjáanlega rökhugsun, auk þess að veita vísindamönnum aðgang að alvöru tölvuvinnslu í gegnum AI Research Resource. Hljómar mjög skynsamlega ... og líka, hljóðlega, eins og tilraun til að koma í veg fyrir að bestu hugir Bretlands séu samstundis sogaðir upp annars staðar. ( GOV.UK )

🧨 Forstjóri Nvidia gefur í skyn að fjárfestingum í OpenAI og Anthropic sé hætt

Jensen Huang gefur til kynna að Nvidia muni hugsanlega ekki halda áfram að fjárfesta í fremstu röð gervigreindarrannsóknarstofum á sama hátt - þar sem fjöldi skráningarútboða (og umfang eftirlits sem rætt er um) gerir það erfiðara að framkvæma þá tegund fjármögnunar. ( Reuters )

Þetta er tónbreyting sem vert er að taka eftir: Nvidia er konungur allrar þessarar uppsveiflu, en það gefur í skyn að það sé ekki alltaf lengur „að eiga hlut í námuverkafólkinu“. Eða kannski er það bara að verjast því upphátt, sem forstjórar gera, eins og að anda. ( Reuters )

🧩 Einkarétt: Stór tæknifyrirtæki styður Anthropic í baráttunni við Pentagon á meðan fjárfestar reyna að draga úr átökum um öryggisráðstafanir gervigreindar

Deila Anthropic við Pentagon er að breytast í algjört þrýstikökupott - fjárfestar vilja að hitinn lækki að sögn, á meðan fyrirtækið reynir að halda sig við öryggisráðstafanir (sérstaklega varðandi eftirlit). ( Reuters )

Undirtexti sögunnar er næstum því háværari en textinn sjálfan: á tímum gervigreindar er samningsorðalag ekki „lagaleg smámunasemi“, heldur í grundvallaratriðum vörustefna - og það ræður því hvort líkan verður verkfæri, vopn eða víðtæk ábyrgð. ( Reuters )

🪖 Sam Altman viðurkennir að OpenAI geti ekki stjórnað notkun Pentagon á gervigreind

Altman sagði starfsfólki sínu að OpenAI gæti ekki stjórnað því hvernig Pentagon notar gervigreind sína eftir að hún hefur verið tekin í notkun - sem lendir með dynk því það nefnir nákvæmlega þann ótta sem fólk hefur verið að vekja. ( The Guardian )

Víðtækari bakgrunnur er vaxandi núningur milli „við hjálpum, með reglum“ og „við hjálpum, punktur“, auk innri og opinberra andmæla þegar hernaðarupptöku virðist vera hraðskreytt eða tækifærissinnuð. Siðferðið hér er minna eins og snyrtileg lína heldur frekar blaut málningarúthelling - allir stíga í kaf og rífast síðan um hver skórinn er. ( The Guardian )

🧬 Nýtt styrktarfélag um gervigreind í erfðafræði við Sanger-stofnunina og Google DeepMind

Wellcome Sanger-stofnunin hleypir af stokkunum fræðistyrk sem fjármagnaður er af DeepMind og einbeitir sér að því að beita gervigreind í erfðafræði - sem er fyrsta sinnar tegundar starf fyrir DeepMind-félaga á þessu sviði. ( sanger.ac.uk )

Það sem er áhugavert (og, satt að segja, svolítið hressandi) er áherslan á vanrannsakað erfðafræðileg vandamál þar sem gervigreind er ekki þegar alls staðar - auk þess að taka fram að DeepMind stýrir ekki rannsóknum fræðimannsins. Það er eins og að gefa einhverjum eldflaug og segja „farðu að uppgötva eitthvað“ frekar en „farðu að fínstilla vegvísi okkar“. ( sanger.ac.uk )

Algengar spurningar

Hvað er rannsóknarstofan í grundvallaratriðum gervigreindar, sem er styrkt af bresku ríkisstjórninni, og hvað mun hún gera?

Rannsóknarstofan Fundamental AI Research Lab, sem er styrkt af ríkisstjórninni, er sett upp sem rannsóknarverkefni sem felur í sér mikla áhættu og getur tekið tíma að skila árangri. Í stað þess að einbeita sér aðeins að því að stækka sífellt stærri líkön, miðar hún að því að takast á við viðvarandi vandamál eins og ofskynjanir, stutt minni og ófyrirsjáanlega rökhugsun. Markmiðið er að byltingar komi frá grunnatriðunum, ekki bara frá því að bæta við fleiri skjákortum.

Hvernig gæti breska rannsóknarstofan um grundvallarrannsóknir á gervigreind hjálpað vísindamönnum að fá aðgang að alvöru tölvuvinnslu?

Samhliða bresku rannsóknarstofunni um grundvallarrannsóknir á gervigreind leggur áætlunin áherslu á aðgang að umfangsmiklum tölvum í gegnum rannsóknarúrræði gervigreindar. Í reynd þýðir það að vísindamenn geta framkvæmt tilraunir sem annars væru takmarkaðar af kostnaði eða innviðum. Það gerir einnig teymum kleift að prófa hugmyndir á skala þar sem vandamál eins og áreiðanleiki og traustleiki verða raunveruleg, ekki bara fræðileg.

Hvers vegna leggur Bretland áherslu á ofskynjanir, stutt minni og ófyrirsjáanlega rökhugsun?

Þessir veikleikar eru af þeirri gerð sem koma upp í innleiðingu og geta hratt grafið undan trausti. Yfirlýst áhersla gefur til kynna að markmiðið sé ekki bara geta, heldur áreiðanleiki - að draga úr uppspunnum niðurstöðum, bæta hvernig líkön meðhöndla lengra samhengi og gera rökfærslu minna óreglulega. Slík vinna er oft hægari og áhættusamari, og þess vegna er hún flokkuð sem grundvallarrannsókn.

Hvaða tónbreytingu gefur Nvidia í raun til kynna varðandi fjárfestingu í OpenAI eða Anthropic?

Skýrslan setur þetta fram sem vísbendingu um að Nvidia haldi hugsanlega ekki áfram að fjárfesta í rannsóknarstofum í fremstu röð á sama hátt, sérstaklega þar sem mikil útboð og stórar ávísanir flækja þá stefnu. Jafnvel sem leiðandi fyrirtæki í gervigreindarbúnaði bendir þetta til þess að eignarhlutir séu ekki alltaf besti kosturinn. Þetta gæti líka verið varfærnisleg skilaboð, sem eru algeng í ummælum stjórnenda.

Hvers vegna er deila Anthropics í Pentagon um „öryggismál“ svona mikið mál?

Lykilatriði greinarinnar er að orðalag samninga getur orðið að vörustefnu - sérstaklega þegar það varðar eftirlit og aðra viðkvæma notkun. Fjárfestar vilja að sögn draga úr átökunum, á meðan fyrirtækið reynir að halda sig við öryggisráðstafanir. Í mörgum gervigreindarútfærslum móta þessar ákvæði til hvers kerfið er hægt að nota og hvaða áhættu fyrirtækið í raun tekur á sig.

Hvað þýðir það þegar Sam Altman segir að OpenAI geti ekki stjórnað því hvernig Pentagon notar gervigreind?

Þetta lýsir hagnýtri takmörkun: þegar tól hefur verið tekið í notkun gæti upprunalegi verktakinn haft takmarkaða getu til að stjórna notkun síðar. Þetta er þungt vegna þess að það bendir á kjarnaótta sem fólk vekur varðandi hernaðarupptöku - reglur geta verið til staðar á samningsstigi en framfylgd getur verið erfið. Það endurspeglar einnig víðtækari spennu milli „hjálpa, með takmörkunum“ og „hjálpa, óháð því“

Fréttir gærdagsins um gervigreind: 3. mars 2026

Finndu nýjustu gervigreindina í opinberu versluninni fyrir gervigreindaraðstoðarmenn

Um okkur

Til baka á bloggið