As vrea sa fiu om - Primele experiente cu chatbot-ul Microsoft sunt nelinistitoare - Bing Chat i-a certat pe useri, i-a contrazis si i-a implorat
Hotnews,
In SUA, primii useri care au testat Bing Chat, chatbot-ul de test prezentat de Microsoft, au ramas uimiti de faptul ca nu este retinut si precaut precum ChatGPT. Oamenii au postat online discutiile cu noul chatbot si in unele au fost certati de chatbot, in altele au fost contrazisi de multe ori si au fost si exemple cand Bing Chat le cerea prietenia si spunea ca ar vrea sa fie om. continuă pe Hotnews