Inimene tsuklis ei ole norkus. See on vastus kuesimusele "Ma ei usalda tehisintellekti."
16. aprill 2026

Inimene tsuklis ei ole norkus. See on vastus kuesimusele "Ma ei usalda tehisintellekti."

ELi tehisintellekti maarus hakkab taielikult kehtima 2. august 2026, ja artikkel 14 noouab, et iga korge riskiga tehisintellekti susteem oleks projekteeritud nii, et kvalifitseeritud isik saab seda jarelvalvata, tema valjundit tolgendada ja seda tyhistada. USA NIST-i tehisintellekti riskijuhtimise raamistik noouab sama. OECD 2025. aasta aruanne Governing with Artificial Intelligence soovitab seda eraldi avalikele hangetele. Inimese jarelvalve ei ole uks paljude hulgas. See on arhitektuurne otsus, millele koondusid regulaatorid, kohtud ja iga toostusharu, mis votsid tehisintellekti suures mastaabis kasutusele.

See on oluline hankemeeskondadele, kes utlevad, et nad ei usalda tehisintellekti. Vastuvaide on kehtiv. Sellele on ka juba vastatud.

50%
paranemine pettuste tuvastamises JPMorganis (TI markib, inimene otsustab)
17%
Lexis+ AI hallutsinatsioonide maar (Stanford 2024)
68%
juristidest usaldab tehisintellektile tundlikku infot (2026)

Vastuvaide, mida keegi valjaspool ei utle

Kusige hankespetsialistilt, kas ta usaldab tehisintellekti pakkumuse hindamiseks, ja vastus soltub sellest, kui turvaliselt vestlus tundub. Neljasilmavestluses on vastus tavaliselt mingi versioon: "Ma ei saa delegeerida otsust, mis kannab minu allkirja, minu karjaari ja voimalikku auditit. Kui tehisintellekt eksib, ei saa ma end kaitsta oeldes, et masin utles mulle nii."

See ei ole tehnoloogiline vastuvaide. See on vastutuse vastuvaide. Ja see kehtib sama joulisusega iga tooriista kohta, mida spetsialist juba kasutab, sealhulgas juunioranaluutiku memo, konsultandi aruanne voi valismine oigusarvamus.

Vastus, nagu selgub, on koigis neis juhtumites sama. Te kontrollite too. Te jatate otsuse endale. Te allkirjastate soovituse.

Mida ELi tehisintellekti maarus tegelikult noouab

ELi tehisintellekti maaruse artikkel 14 sateb neli konkreetset projekteerimisnouet korge riskiga tehisintellekti susteemidele. Inimese jarelvaataja peab suutma moista susteemi voimalusi ja piiranguid. Ta peab suutma tuvastada ja lahendada probleeme enne, kui need pohjustavad kahju. Ta peab suutma valjundit tolgendada. Ta peab suutma otsustada susteemi mitte kasutada voi selle tootamine peatada.

See ei ole lahtiutlus. See on projekteerimise spetsifikatsioon. Taielik tehisintellekti maarus kehtib 2. august 2026, pikendatud uleminekuperioodiga kuni 2. august 2027 korge riskiga tehisintellekti susteemidele, vastavalt Euroopa Komisjoni AI Act Service Desk-ile. Karistused mittevastavuse eest ulatuvad kuni 7%-ni globaalsest kaibest.

Hanked klassifitseeritakse korge riskiga, kui need moojutavad juurdepaasu olulistele avalikele teenustele. Isegi kui hanke tehisintellekt ei ole juriidiliselt korge riskiga, koondub ELi avalike hangete auditipraktika juba samale standardile: kui tehisintellekt andis otsusele teavet, peab inimene suutma seda otsust iseseisvalt selgitada.

7% globaalsest kaibest

Maksimaalne karistus ELi tehisintellekti maaruse jargi mittejargimise eest. Artikkel 14 noouab, et kvalifitseeritud inimene saaks jarelevalvet teostada, tulemusi tolgendada ja iga korge riskiga tehisintellekti susteemi tuhistada.

Kuidas teised toostusharud selle operatiivseks tegid

Pangandus. JPMorgan Chase kasutab tehisintellekti pettuste tuvastamist, mis sorteerib iga tehingu. Vastavalt panga avalikustustele, mis on kokku vottev AIX 2026. aasta juhtumiuuring, tehisintellekt ise ei blokeeri korge vaartusega ega piiripealseid tehinguid. See margib need inimvaatlejale. 50% paranemine pettuste tuvastamise naitajates tuli parema margistamise, mitte autonoomse tegevuse tottu. COiN, panga lepingute ulevaatuse tehisintellekt, teeb lugemise. Keerulistele klauslitele annab heakskiidu jurist.

Meditsiin. FDA heakskiidu saanud radioloogia tehisintellekt oskab moota kasvajat, esile tosta kahtlast piirkonda ja arvutada riskiskoori. Ta ei oska kirjutada diagnostilist aruannet. Aruande kirjutab radioloog. See ei ole regulatiivne eripara. See on see, mida 510(k) heakskiidutee ilmselgelt sailitab, vastavalt 2025. aasta JAMA Network Open susteemsele ulevaatele FDA tehisintellekti seadmete heakskiitudest.

Oigusvaldkond. Westlaw AI-Assisted Research ja Lexis+ AI koostavad lyhikirjutusi, teevad kokkuvotteid tunnistustest ja genereerivad kohtupraktikat. 2024. aasta Stanfordi uuring leidis, et nad halutsineerivad vastavalt 17% ja 34% juhtumitest. Ja siiski kahekordistus nende kasutuselevott aasta jooksul, vastavalt 2026. aasta Legal Industry Report-ile, sest juristid kontrollivad tsitaate enne esitamist. Halutsinatsiooniriski tooriistu ara ei tapnud. See tappis praktika mitte kontrollida.

Iga neist toostusharudest otsustas sama.

Tehisintellekt teeb lugemise. Inimesed teevad otsustamise.

Miks see on tugevus, mitte piirang

Generatiivse tehisintellekti varasest ajastust on parit kultuuriline jaakreaktsioon, mis raamistab inimest tsuklis kui kompromissi, nagu paljastaks see tehisintellekti norkuse. Tegelikkus on vastupidine.

OECD 2025. aasta aruanne Governing with Artificial Intelligence avalike hangete kohta on selgesonaline, et tehisintellekti leidude inimlik valideerimine on projekteerimise tugevus: just see muudab tooriista auditeeritavaks, seletatavaks ja reeglipohises susteemis kasutatavaks. IAPP 2026. aasta analuus inimese tsuklis tehisintellekti riskijuhtimises sonastas selle pointi veel teravamalt. Pime tuginemine inimulevaatusele on omaette risk, sest inimesed kinnitavad templi ilma lugemata. Paris jarelvalve noouab tooriista, mis naeitab, mida see leidis, kus ta selle leidis ja miks see on oluline. Ilma selleta on inimene tsuklis dekoratsioon, mitte kaitsemehhanism.

Just seeparast on toendid hanke tehisintellektis olulisemad kui uhegi teine projekteerimisotsus. Leid, mis utleb "pakkumisel puudub tehnilise personali toend", on kasutu, kui spetsialist ei naee kohe, millise dokumendi millist lehekulge loeti, mida tehisintellekt ootas ja miks ta joudis sellisele jareldusele. Leid otsetsitaadi ja lehekulje viitega on kontrollitav kolmekumne sekundiga. Spetsialist kas noustub pohjendusega voi tyhistab selle, ja ta allkiri kehtib molemal juhul.

Milline naeb valja hea hanke tehisintellekti susteem

Tehisintellekti hankesysteemil, mis on kavandatud artikli 14, NIST RMF, OECD juhiste ja standardse auditipraktika maailma jaoks, on luhike nimekiri mitteluhteatavatest omadustest.

Iga leid jargib tsitaati konkreetsest dokumendist koos lehekulje viitega. Ukski tehisintellekti vaide ei seisa ilma allikata.

Kriitilisi leide kontrollib enne nende esitamist uuesti eraldi mudel. Spetsialist naeb kontrollitud valjundit, mitte esimest lapi.

Tehisintellekt saab analuusi keskel peatuda ja paluda tapsustust. Ta ei arva, kui ta pole kindel.

Spetsialist saab iga leiu mis tahes hetkel tyhistada. Tyhistamine registreeritakse.

Kogu pohjendamise jalg on eksporditav, kas Exceli tooraamatuna voi Markdown-logina, et audiitor voi noukogu ulevaataja naeks tapselt, mida tehisintellekt luges, mida ta leidis ja kuidas spetsialist selle pohjal toimis.

Miski sellest pole eksootiline. See on sama muster, millele koondusid pangandus, oigus ja meditsiin vahemikus 2020-2026.

Tegelik vastus kusimusele "Ma ei usalda tehisintellekti"

Aus vastus on: hea. Te ei peaks uhtegi tooriista tingimusteta usaldama, ja tosiseltvoetavad tehisintellekti tooriistad on ehitatud sellele eeldusele. See, millele koonduvad ELi tehisintellekti maarus, NIST ja OECD, ei ole pime usaldus masina vastu. See on tingimuslik usaldus, mida toetavad nahtavad toendid ja sailitatud autoriteet.

Hankespetsialist, kes vaatab tehisintellekti leide yle sama pohjalikkusega, millega ta vaataks yle juunioranaluutiku memo, on sama kaitstava protsessiga, mis tal alati on olnud. Erinevus on selles, et juunioranaluutik on seekord lugenud iga lehekulje igast dokumendist ega vaesi kunagi lehekuljel 200.

Allikad

  1. EU AI Act — Article 14: Human oversight
  2. Regulation (EU) 2024/1689 — The AI Act (EUR-Lex)
  3. European Commission — AI Act Service Desk: Article 14
  4. NIST — AI Risk Management Framework
  5. OECD — Governing with Artificial Intelligence: AI in Public Procurement (2025)
  6. JAMA Network Open — FDA Approval of AI and ML Devices in Radiology: A Systematic Review (2025)
  7. Stanford HAI — AI on Trial: Legal Models Hallucinate in 1 Out of 6 Benchmarking Queries (2024)
  8. FDA — Premarket Notification 510(k)
Vaadake, kuidas tehisintellekt saab teie hangetega aidata.
Proovige esimest tehisintellekti analuusi tasuta.
Registreeru tasuta
Tagasi blogisse