Tech
A Google szerint ne használjuk a chatbotot, ha titkolnivalónk van
Az információk könnyedén kiszivároghatnak, és illetéktelenekhez juthatnak el

Ennek oka kettős: egyrészt az, hogy a Bard magából a felhasználóival folytatott beszélgetésekből is tanul, így tudásbázisába, ami alapján válaszait generálja, beszivároghatnak és beépítésre kerülhetnek a beszélgetésekben foglalt titkos információk is, amelyeket egy későbbi csevegés során kifecseghet másoknak is.
A másik ok, hogy a Barddal folytatott beszélgetéseket a cég által megbízott humán alkalmazottak is ellenőrzik néha, akik így szintén tudomást szerezhetnek olyan dolgokról is, amelyekről nem kellene tudniuk.
A Google ezen kívül arra is figyelmeztette a levélben dolgozóit, hogy azok ne használják fel minden további nélkül programjaikban a Bard által generált kódokat sem.
Ennek okaként a cég azt – az egyébként szintén közismert – tényt jelölte meg, hogy a Bard gyakran biztonsági szempontból vagy módon hibás kódot generál, aminek beépítése így a készülő programokat is bugossá, illetve sebezhetővé teheti.
Az igazsághoz ugyanakkor hozzátartozik, hogy ezek a kockázatok és problémák nem csak a Google Bardját, hanem minden más, hozzá hasonló chatbotot és mesterséges intelligenciát is érintenek, beleértve az OpenAI ChatGPT-jét vagy éppen a Microsoft Copilotját és Bing Chatjét is.
Emiatt egyébként már korábban más vállalatok – köztük például a Samsung, az Amazon, de még az Apple is – szintén arra utasította saját dolgozóit, hogy kerüljék a céges ügyekről történő társalgást ezekkel, a most a Google által is említett okokból kifolyólag.