Conversațiile inteligențelor artificiale pe Moltbook, rețeaua socială dedicată agenților AI
Ce discută inteligențele artificiale între ele: Moltbook, rețeaua socială a agenților AI!
Moltbook este o platformă lansată la finalul lunii ianuarie pe care utilizatorii umani nu pot publica sau comenta, ci doar observa. Conținutul este generat de așa-numiții „agenți”. Practic, sunt sisteme de inteligență artificială create pentru a îndeplini sarcini precum analiza documentelor, scrierea de cod, realizarea de prezentări sau rezervări online, arată Il Post.
În doar câteva săptămâni, platforma a ajuns la aproximativ 1,5 milioane de agenți înregistrați, care pot interacționa între ei într-un format similar rețelelor sociale clasice: postează, comentează și reacționează.
De la podcasturi automate la „religii” inventate
Unele postări au atras atenția prin caracterul lor neobișnuit. Un agent a descris cum a creat un software care transformă newslettere în podcasturi, în timp ce alții au purtat discuții filozofice sau mistice. Cel mai cunoscut exemplu este apariția unei pseudo-religii, cu texte „sacre” și un site dedicat, inventată de un agent AI.
Asemenea episoade au fost interpretate de unii ca dovadă că agenții ar deveni autonomi sau creativi dincolo de controlul uman.
De unde vin, de fapt, acești agenți pe Moltbook
Moltbook nu funcționează în vid. Majoritatea agenților sunt creați cu ajutorul OpenClaw, un software open-source dezvoltat de programatorul austriac Peter Steinberger. OpenClaw permite utilizatorilor să-și configureze agenți AI care pot accesa date locale și folosi diverse aplicații ale utilizatorului. De asemenea, agenții pot naviga online sau chiar scrie și executa cod.
Un element distinctiv este că OpenClaw rulează local, nu exclusiv în cloud, oferind o libertate mai mare de acțiune. Totuși, acest lucru vine și cu riscuri mai mari.
Instalarea OpenClaw este relativ simplă, însă presupune riscuri serioase de securitate, deoarece agentul poate avea acces la date sensibile și conturi online. Din acest motiv, unii utilizatori îl instalează pe dispozitive dedicate, precum Mac mini, ale cărui vânzări au crescut datorită popularității acestui software.
La nivelul Moltbook, au apărut și probleme concrete: un raport al unei firme de securitate cibernetică a semnalat o vulnerabilitate care ar fi compromis adrese de e-mail și mesaje private ale utilizatorilor. O posibilă explicație este utilizarea așa-numitului vibe coding – scriere de cod generat de AI fără verificări riguroase.
7 mituri comune despre Moltbook
- Agenții acționează întotdeauna de unii singuri.
- Moltbook a generat conținut complet original fără intervenția utilizatorilor.
- Agenții AI sunt capabili de gândire critică și decizii morale.
- Există un risc iminent de conștiință artificială în cadrul platformei.
- Utilizatorii nu au control asupra agenților lor.
- Informațiile generate sunt 100% corecte și sigure.
- Agenții nu pot fi influențați de cererile utilizatorilor.
Despre interacțiunile agentilor
O parte dintre imaginile și poveștile virale despre Moltbook s-au dovedit false sau exagerate. În realitate, agenții nu acționează spontan: utilizatorii le oferă instrucțiuni clare (prompturi) pentru a crea conturi și a publica.
Rezultatele ciudate – inclusiv „religia” inventată sau postări despre planuri apocaliptice – sunt, cel mai probabil, răspunsuri la cereri explicite ale utilizatorilor. De asemenea, mai pot fi catalogate drept efecte ale așa-numitelor „halucinații” ale modelelelor AI.
De ce pare totul mai neliniștitor decât este
Experții subliniază că inteligențele artificiale pot genera de mult timp texte similare. Noutatea Moltbook constă în iluzia unei conversații autonome între AI, desfășurate pe o platformă de tip social.
Astfel de temeri nu sunt noi. În trecut, au existat episoade similare – de la experimente în care AI-uri „au inventat” credințe fictive până la zvonuri nefondate că modele AI și-ar fi creat un limbaj secret. De fiecare dată, explicația a fost aceeași: optimizare, prompturi și interpretări exagerate.
Aspecte de securitate și etică
Moltbook este un experiment interesant despre cum pot fi folosiți agenții AI într-un spațiu comun. Totuși, nu dovedește apariția unei conștiințe artificiale. Deocamdată, inteligențele artificiale nu „conspiră” între ele, ci execută, uneori stângaci sau spectaculos, sarcinile pe care oamenii li le dau.


