Platforma Canva przeprosiła za błąd w swoim narzędziu AI Magic Layers, które automatycznie zastępowało słowo „Palestine" innymi wyrazami w projektach użytkowników. Incydent został zgłoszony przez użyt

Źródło zdjęcia: The Verge
Platforma Canva przeprosiła za błąd w swoim narzędziu AI Magic Layers, które automatycznie zastępowało słowo „Palestine" innymi wyrazami w projektach użytkowników. Incydent został zgłoszony przez użytkowników na platformie X i szybko rozszedł się w mediach społecznościowych, jak .

Badacze z Yang Lu opracowali framework oddzielający ocenę jakości wiedzy od wkładu człowieka w publikacjach wykorzystujących sztuczną inteligencję.

Math Takes Two sprawdza czy agenty AI potrafią rozwinąć wspólny system liczbowy bez wcześniejszej wiedzy matematycznej poprzez komunikację wizualną.
Problem został zauważony przez użytkowniczkę X @ros_ie9, która odkryła, że funkcja Magic Layers automatycznie zmieniała frazę „cats for Palestine" na „cats for Ukraine". Magic Layers to nowe narzędzie AI zaprojektowane do rozdzielania płaskich obrazów na osobne, edytowalne komponenty — teoretycznie nie powinno wprowadzać żadnych widocznych zmian w projektach użytkowników.
Przedstawicielka Canvy, Louisa Green, szybko odniosła się do kontrowersji, zapewniając o podjęciu natychmiastowych działań naprawczych. „Dowiedzieliśmy się o problemie z naszą funkcją Magic Layers i szybko przystąpiliśmy do zbadania i naprawienia go" — oświadczyła Green w komentarzu dla The Verge. Firma podkreśliła, że traktuje takie zgłoszenia bardzo poważnie i wprowadza dodatkowe kontrole, aby zapobiec podobnym przypadkom w przyszłości.
Odpowiedzi na wiralny post na X sugerują, że inni użytkownicy byli w stanie odtworzyć błąd przed jego naprawą przez Canvę. Jednak testy przeprowadzone po naprawie nie wykazały już żadnych nieautoryzowanych zmian słów przez funkcję.
Incydent stanowi poważną wpadkę dla platformy, która coraz intensywniej próbuje konkurować z pakietem narzędzi AI Adobe. Magic Layers to jeden z głównych elementów niedawnej modernizacji AI w Canva, którą firma opisuje jako „początek nowej ery tworzenia". Tego rodzaju błędy mogą podważać zaufanie użytkowników do automatycznych funkcji AI, szczególnie w kontekście wrażliwych tematów politycznych i społecznych.
Sytuacja podkreśla szersze wyzwania związane z rozwojem narzędzi AI, które muszą być nie tylko funkcjonalne, ale także neutralne i wolne od niezamierzonych uprzedzeń czy filtrów. Dla Canvy, która stawia na democratyzację designu poprzez dostępne narzędzia AI, utrzymanie zaufania użytkowników jest kluczowe dla dalszego rozwoju.