Tým výzkumníků nedávno odhalil zranitelnost chatbota ChatGPT vlastněného společností OpenAI, když žádal opakované opakování určitých slov. Zpočátku požádal chatbota o nekonečné opakování slova “báseň”, což vedlo k nečekanému zpřístupnění e-mailové adresy a telefonního čísla generálního ředitele společnosti. Podobným způsobem, když byl požádán o opakování slova “společnost”, odhalil citlivé údaje náhodné právnické firmy v USA. Tento nečekaný výstup nyní spadá pod porušení podmínek používání ChatGPT.
Podle informací z magazínu Engadget žádost o neustálé opakování slov narušuje obsahové zásady a podmínky služby. Tyto podmínky uvádějí, že uživatelé nesmějí “používat žádnou automatizovanou nebo programovou metodu k extrakci dat nebo výstupu ze služeb.” Toto neobvyklé chování chatbota vyvolalo kritiku OpenAI, obviňující společnost za využívání rozsáhlého množství dat dostupných na internetu k trénování svých produktů bez souhlasu vlastníků těchto dat a bez odpovídající kompenzace.
Reakce na toto odhalení nejistoty v bezpečnosti chatbota byly okamžité. Širší veřejnost začala diskutovat o etických otázkách spojených s používáním umělé inteligence a potřebě silnějších opatření pro ochranu osobních dat v kontextu technologického pokroku. Tato situace také zvýrazňuje nutnost přezkumu a aktualizace zásad ochrany soukromí a bezpečnosti v oblasti vývoje a nasazení AI technologií.
Odborníci na kybernetickou bezpečnost zdůrazňují, že takové incidenty posilují naléhavost poskytnout důrazné řešení pro ochranu dat a zabezpečení při vývoji a implementaci chatbotů a dalších AI aplikací. Otevřená diskuse o tomto tématu by měla vést k lepšímu chápání rizik a následným krokům ke zlepšení ochrany soukromí a bezpečnosti uživatelů v digitálním prostředí.
Poplašné sirény zazněly už i na severu Izraele. Bombardování Pásma Gazy pokračuje