Fréttir um gervigreind 10. janúar 2026

Yfirlit yfir fréttir um gervigreind: 10. janúar 2026

Indónesía lokar fyrir aðgang að spjallþjóni Musk, Grok, vegna djúpfalsmynda

Indónesía lokaði tímabundið á Grok eftir að það var notað til að búa til kynferðislegar djúpfalsamyndir án samþykkis - þar á meðal myndir sem beindust að konum og börnum. Stjórnvöld lýstu því sem mannréttinda- og almannaöryggismáli, ekki sem minniháttar tæknilegum óþægindum.

Þrýstipunkturinn er afgerandi: ef tól getur „afklæðt“ raunverulegt fólk að beiðni, þá snýst sönnunarbyrðin við. Pallar verða að sýna fram á að þeir geti komið í veg fyrir það, ekki bara lofa að þeir séu að hugsa um það.

Elon Musk segir að Bretland vilji bæla niður tjáningarfrelsi þar sem X stendur frammi fyrir hugsanlegu banni

Breskir ráðherrar lögðu opinberlega fram sektir - og jafnvel lokuðu á X - eftir að Grok var notað til að búa til kynferðislega klámfengnar myndir án samþykkis. Musk hafnaði því með kunnuglegum ramma um tjáningarfrelsi ... en lagaleg staða í Bretlandi er að færast frá „umræðuklúbbi“ yfir í „samræmisfrest“

Ofcom er hvatt til að bregðast hratt við og löggjafarvaldið bendir á sama dapurlega mynstur: þegar myndirnar dreifast bíður skaðinn ekki þolinmóður eftir uppfærslu á stefnu.

🧑💻 OpenAI biður verktaka að hlaða upp raunverulegum verkum úr fyrri verkefnum

OpenAI, ásamt samstarfsaðila í þjálfunargögnum, er að sögn að biðja verktaka um að hlaða upp raunverulegum verkefnum úr fyrri (og núverandi) verkefnum - eins og skjölum, töflureiknum, gagnagrunnum og gagnasöfnum. Yfirlýst markmið er að meta og bæta gervigreindarumboðsmenn í verkefnum sem tengjast skrifstofu.

Það sem er klístrað er augljóst og dálítið óraunverulegt: verktaka er sagt að hreinsa viðkvæmar upplýsingar sjálfir. Það er mikið traust að sýna hraðvirkri leiðslu - eins og að biðja einhvern um að aftengja sprengju með ofnhönskum, á kærleiksríkan hátt.

🗂️ OpenAI biður verktaka um að hlaða upp verkum úr fyrri verkefnum til að meta frammistöðu gervigreindarumboðsmanna

Sérstök skýrsla fjallar um sama uppsetninguna og hvers vegna hún vekur áhyggjur lögfræðinga sem sérhæfa sig í persónuvernd og hugverkaréttindum. Jafnvel þótt allir séu í góðri trú, þá eru „fjarlægðu trúnaðarmál“ frekar óljós fyrirmæli þegar um raunveruleg fyrirtækjaskjöl er að ræða.

Þetta gefur einnig til kynna stærri stefnu: Gervigreindarfulltrúar eru ekki lengur bara spjallsamir aðstoðarflugmenn - þeir eru þjálfaðir til að herma eftir flóknum, margþættum veruleika raunverulegs vinnu. Hagnýtt, já. Einnig svolítið ... æi.

🏦 Allianz og Anthropic Forge stofna alþjóðlegt samstarf til að efla ábyrga gervigreind í tryggingum

Allianz og Anthropic tilkynntu um alþjóðlegt samstarf sem beinist að þremur þáttum: framleiðni starfsmanna, sjálfvirkni rekstrar með gervigreind og hönnun sem byggir á reglufylgni. Tryggingar eru pappírsvinna með tönnum, svo „umboðsleg“ þýðir hér í grundvallaratriðum að sjálfvirknivæða flókin vinnuflæði án þess að glata endurskoðunarslóðum.

Stemningin er: gerið flott sjálfvirkni, en geymið kvittanir. Í eftirlitsskyldum atvinnugreinum er þetta eina leiðin til að stækka þetta án þess að verða að ábyrgðarlausri pinjatu.

🕵️♂️ Yfirlýsing í svari við Grok AI á X

Persónuverndareftirlitið í Bretlandi segist hafa haft samband við X og xAI til að fá skýringar á því hvernig þau meðhöndla persónuupplýsingar og vernda réttindi fólks, í ljósi áhyggna af efni sem Grok hefur búið til. Þetta snýst ekki bara um „efnisstjórnun“ - heldur einnig hvort gögn fólks séu unnin á lögmætan hátt og hvort réttindi séu vernduð.

Þetta er sú tegund reglugerðaraðgerða sem hljómar kurteislega en verður svo hljóðlega afar alvarleg ef svörin eru óljós ... eða undanbrögð, eða hvort tveggja.

Algengar spurningar

Hvers vegna lokaði Indónesía fyrir aðgang að Grok AI?

Indónesía lokaði tímabundið á Grok eftir að það var greint frá því að það hefði verið notað til að búa til kynferðislegar djúpfalsamyndir án samþykkis, þar á meðal myndir sem beinast að konum og börnum. Yfirvöld lýstu þessu sem mannréttinda- og almannaöryggismáli, ekki sem minniháttar tæknideilu. Undirliggjandi skilaboðin eru að „við munum laga þetta seinna“ duga ekki þegar verkfæri geta valdið tafarlausum, óafturkræfum skaða.

Hvað er Bretland að íhuga eftir að djúpfölsun frá Grok birtist á X?

Breskir ráðherrar ræddu opinberlega sektir og jafnvel möguleikann á að loka á X eftir að Grok var notað til að búa til kynferðislega klámfengnar myndir án samþykkis. Tónninn í stjórnmálum og reglugerðum er að færast í átt að framfylgjanlegri eftirfylgni, ekki opnum umræðum. Það sem löggjafarvaldið heldur áfram að snúa sér að er tímasetning: þegar myndir dreifast verða fórnarlömb fyrir skaða löngu áður en vettvangar birta uppfærðar stefnur.

Hvað þýðir það þegar eftirlitsaðilar „snúa sönnunarbyrðinni við“ fyrir myndtól sem byggja á gervigreind?

Hugmyndin um „sönnunarbyrðina sem snýst um að snúa við sönnunarbyrði“ felst í því að kerfi gætu þurft að sýna fram á að þau geti komið í veg fyrir tiltekið tjón - eins og að búa til myndir af „afklæðningu“ án samþykkis - frekar en að lofa einfaldlega öryggisráðstöfunum. Í reynd ýtir þetta fyrirtækjum í átt að sýnilegum eftirliti, mælanlegri framfylgd og skýrri meðhöndlun bilana. Það gefur einnig til kynna að „vilji“ skiptir minna máli en áþreifanlegir árangur og endurteknar forvarnir.

Hvernig geta kerfi dregið úr hættu á djúpfölsunum sem framleiddar eru með gervigreind án samþykkis?

Algeng nálgun er lagskipt forvörn: takmarka fyrirmæli og úttak sem tengjast raunverulegu fólki, loka fyrir beiðnir um að „afklæðast“ og greina og stöðva tilraunir til að búa til kynferðislegar myndir án samþykkis. Margar leiðslur bæta við hraðatakmörkunum, sterkari eftirliti með sjálfsmynd og misnotkun og skjótum vinnuflæðum til að fjarlægja efni þegar það dreifist. Markmiðið er ekki bara stefnumál, heldur verkfæri sem standast andstæðingalega notkun.

Hvers vegna eru verktakaupphleðslur OpenAI á raunverulegum vinnuskjölum að vekja áhyggjur?

Skýrslur herma að OpenAI (ásamt samstarfsaðila í þjálfunargögnum) sé að biðja verktaka um að hlaða upp raunverulegum vinnugögnum - skjölum, töflureiknum, gögnum og gagnasöfnum - til að meta og bæta gervigreindarumboðsmenn fyrir skrifstofustörf. Áhyggjuefnið er að verktakar eru beðnir um að hreinsa viðkvæmar upplýsingar sjálfir, sem getur verið villuhættulegt. Lögfræðingar sem sérhæfa sig í persónuvernd og hugverkaréttindum hafa áhyggjur af því að þessi fyrirmæli um að „fjarlægja trúnaðargögn“ séu of óljós fyrir raunverulegt fyrirtækjagögn.

Hver er þýðing samstarfs Allianz við Anthropic um „umboðsmannlega gervigreind“ í tryggingum?

Allianz og Anthropic lýstu alþjóðlegu samstarfi sem einbeitti sér að framleiðni starfsmanna, sjálfvirkni í rekstri með því að nota gervigreind sem umboðsmann og hönnun á reglufylgni. Vinnflæði trygginga eru flókin og mjög reglubundin, þannig að „umboðsmannsmannsmannsmannsmann“ felur oft í sér sjálfvirkni margstiga ferla án þess að missa ábyrgð. Áherslan á endurskoðunarslóðir og „geymslu kvittana“ endurspeglar hagnýtan veruleika: sjálfvirkni eykst aðeins í reglubundnum atvinnugreinum þegar hún er enn eftirlitshæf og varnarhæf.

Fréttir gærdagsins um gervigreind: 9. janúar 2026

Finndu nýjustu gervigreindina í opinberu versluninni fyrir gervigreindaraðstoðarmenn

Um okkur

Til baka á bloggið