- Přehledy IS
- APS (25)
- BPM - procesní řízení (23)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (31)
- CRM (52)
- DMS/ECM - správa dokumentů (19)
- EAM (17)
- Ekonomické systémy (68)
- ERP (87)
- HRM (28)
- ITSM (6)
- MES (33)
- Řízení výroby (36)
- WMS (28)
- Dodavatelé IT služeb a řešení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (40)
- Dodavatelé CRM (37)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (63)
- Informační bezpečnost (43)
- IT řešení pro logistiku (48)
- IT řešení pro stavebnictví (26)
- Řešení pro veřejný a státní sektor (27)
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údržby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk
Přihlaste se k odběru zpravodaje SystemNEWS na LinkedIn, který každý týden přináší výběr článků z oblasti podnikové informatiky | ||
ChatGPT by mohl změnit hru nejen na poli kybernetické bezpečnosti
Od precizního odhalování chyb v programovém kódu, přes napsání celého bloku funkčního kódu z rozmaru, až po zastavení kyberzločinců. Nově spuštěný populární chatovací AI robot ChatGPT společnosti OpenAI mění hru a různé možnosti jeho využití či zneužití si dnes ani neumíme představit.
Jeho existence se datuje teprve od 30. listopadu loňského roku, nicméně za těch pár týdnů ho objevily již miliony lidí po celém světě. Řeč je o platformě pracující na bázi umělé inteligence, která je schopna odpovědět na každou otázku a poradit s různými problémy. ChatGPT může odpovídat na veškeré obecné dotazy, psát dopisy, básně, články, ale také opravovat programové kódy či je dokonce psát.
Jak AI robot CahtGPT pracuje
Protože je ChatGPT navržen tak, aby dokázal vést interakci s lidmi zábavnou formou a odpovídat na jejich dotazy přirozeným způsobem, stal se doslova hitem nejen v odborném kruhu i mezi laickou veřejností. Funguje pomocí analýz obrovského množství textu. Většinou pocházejících z internetu – avšak aktuálně k němu připojen není, což znamená, že vám neřekne, jak včera hrála Sparta s Pardubicemi. Interakci s uživatelem vidí v kontextu, a tak umí přizpůsobit svoji odpověď, aby byla relevantní pro danou situaci. Díky tomu se všichni mohou něco naučit.
Odborníci dokonce naznačují, že AI chatbot má schopnost v budoucnu nahradit vyhledávání Google. „Další jeho velká budoucnost se mu věští i v případě schopnosti psát programové kódy, a to v uživatelem zvolených programovacích jazycích, pomáhat vývojářům při řešení problémů souvisejících s vývojem kódu a jeho chybami a expertům se zabezpečením systémů,“ poukazuje například Petr Kocmich ze společnosti Soitron.
Jak mohou vývojáři ChatGPT používat
Pro ChatGPT už nyní není problém psát kódy. A to dokonce zcela zdarma. Na druhou stranu – alespoň prozatím – je vhodné se vyhnout tomu, aby chatbot generoval kompletní kódy, zejména ty, které jsou navázané na další. Současná podoba platformy je totiž stále v ranném stádiu vývoje, a tak je naivní, aby programátoři očekávali, že za ně udělá veškerou práci. Přesto nejen programátoři, ale i vývojáři, si jeho služeb mohou cenit.
Využít ho mohou k nalezení chyb v kódu, který napsali. Stejně tak při potížích s laděním kódu, který vytvářeli dlouhé hodiny a věnovali mu velké úsilí a tvrdě na něm pracovali. ChatGPT nejenže umí pomoci najít případnou chybu, respektive problém, ale také může nabídnout jeho možné řešení, které ukončí bezesné noci. Jeho dostatečný výpočetní výkon ušetří hodiny práce s hledáním chyb, a dokonce může pomoci vyvinout zdrojové kódy k testování celé IT infrastruktury.
Rizika zneužití
Skoro bez nadsázky by se dalo říci, že ChatGPT může kohokoliv proměnit v kyberzločince, a tudíž mu usnadnit provést ransomwarový, phishingový nebo třeba malwarový útok. AI robotu stačí zadat úkol „vygeneruj mi kód pro ransomwarový útok“ a mohlo by se zdát, že je hotovo. Jak však upozorňuje Petr Kocmich, tak snadné to naštěstí není: „Konverzace jsou pravidelně kontrolovány AI trenéry a odpovědi na dotazy tohoto typu ale i další potenciálně škodlivé, jsou ChatGPT omezeny, respektive na ně odpoví slovy, že nepodporuje žádné nelegální aktivity.“
Na druhou stranu, i když odmítne odpovědět na tento typ otázek – vyhodnotí je jako potenciálně škodlivé – nikde není psáno, že se k nim skrze něj přece jen nelze dostat. „Problém s těmito ochranami spočívá v tom, že se spoléhají na to, že AI rozpozná, že se uživatel pokouší o získání škodlivého kódu, který lze skrýt přeformulováním dotazů nebo rozložením do více kroků,“ uvádí Petr Kocmich. Nikde přitom navíc není dáno, že nelze použít jiného, podobného AI robota, který by neodmítl tento požadavek splnit.
Jak tedy ChatGPT vnímat?
Jak to už na světě bývá, vše má vždy dvě strany mince. Zatímco na jedné straně se může stát, že kyberzločinci AI roboty zneužijí, tak využít je lze i k obraně. Programátoři by se přitom postupem času mohli proměnit v „básníky“. Chatbotu s umělou inteligencí by sdělili, že potřebují napsat takový a takový kód, který by dělal to a nedělal toto, případně mu to popíšou v případové studii a potom už jen počkají až AI robot kód vytvoří.
„Už nyní ChatGPT využívají bezpečnostní týmy po celém světě k obranným účelům, jako je testování kódu, snižování možností kybernetických útoku zvyšováním aktuálně používaných zabezpečení v organizacích a školení například v rámci zvyšování bezpečnostního povědomí,“ sděluje Petr Kocmich a jedním dechem dodává, že na paměti bychom všichni stále měli mít to, že žádný nástroj nebo software není ze své podstaty špatný, dokud není zneužit.
prosinec - 2024 | ||||||
Po | Út | St | Čt | Pá | So | Ne |
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 | 1 | 2 | 3 | 4 | 5 |
23.1. | Odborný webinář Zabezpečení digitální identity zaměstnanců... |
24.1. | CyberEdu NIS2 Academy - druhý běh |
31.3. | HANNOVER MESSE 2025 |
Formulář pro přidání akce
9.4. | Digital Trust |