Publikováno: 17. 03. 2025, v rubrice:
Bezpečnost, autor:
Miroslav Čermák
, zobrazeno: 233x
Donedávna jsme se věnovali rizikům, která souvisí především s používáním AI, ale nyní nastal nejvyšší čas, abychom se podívali i na rizika spojená s nepoužíváním AI.
Právě v době rostoucí geopolitické nejistoty a regulatorních tlaků bychom toto riziko měli vnímat velice vážně. Nejde jen o nějaké FOMO, ale o reálnou hrozbu technologického zaostávání, o které se ve svém nedávném článku zmínil i Dr. Libor Dostálek.
Publikováno: 20. 02. 2025, v rubrice:
Bezpečnost, autor:
Miroslav Čermák
, zobrazeno: 651x
JD Vance není hlupák, který by nerozuměl problematice AI. Je to zkušený politický stratég, který ví přesně, jak oslovit své publikum.
Šlo o pečlivě připravenou psychologickou operaci (PSYOPS), jejímž cílem nebylo nic menšího než posunout evropskou veřejnou a politickou debatu a vývoj směrem, který by přesně vyhovoval americkým geopolitickým zájmům.
Publikováno: 12. 06. 2023, v rubrice:
Řízení rizik, autor:
Miroslav Čermák
, zobrazeno: 629x
Byť se teď o AI hodně mluví a najednou je na ní každý expert, tak přesto ve většině organizací není AI ani řádně definována a je za ní považováno cokoliv.
Že není sepsána politika, standardy a směrnice pro používání AI, a nejsou ani identifikována a řízena rizika AI, není snad ani potřeba dodávat. Pojďme se proto podívat na konkrétní rizika AI, která můžeme rozdělit do několika skupin.
Publikováno: 03. 05. 2023, v rubrice:
Řízení rizik, autor:
Miroslav Čermák
, zobrazeno: 808x
Byť jsou k dispozici nejrůznější návody pro řízení rizik informačních systémů, tak AI systémy jsou v lecčems jedinečné, především ve své nepředvídatelnosti, neboť jsou trénovány nad daty, která se mohou měnit a dále se pak samy mění na základě interakce s lidmi.
NIST zveřejnil řadu dokumentů týkajících se řízení rizik umělé inteligence. Klíčový je pak rámec pro řízení rizik umělé inteligence AI RMF 1.0 z ledna 2023.