Najnowsze badania z Uniwersytetu Kolorado pokazują, że sztuczna inteligencja wciąż ma problem z rozwiązywaniem logicznych łamigłówek, takich jak sudoku. Mimo że technologie AI bardzo się rozwijają, ich skuteczność w tej dziedzinie jest wciąż bardzo niska.
Naukowcy sprawdzili kilka popularnych modeli AI, w tym o1, Llama-3.1 czy Mistral, testując je na 2300 planszach sudoku o różnych poziomach trudności. Okazało się, że najlepiej poradził sobie model o1, rozwiązując około 65% plansz, ale ogólnie AI poprawnie rozwiązała jedynie 0,4% zadań. Co więcej, im trudniejsze sudoku, tym gorzej AI radziła sobie z ich rozwiązaniem.
Problem polega na tym, że sztuczna inteligencja działa przede wszystkim na zasadzie przewidywania najbardziej prawdopodobnych odpowiedzi, a nie na ścisłym logicznym rozumowaniu. W sudoku ważne jest, by przestrzegać konkretnych zasad, takich jak brak powtarzania cyfr w wierszach, kolumnach czy blokach. AI często nie potrafi uwzględnić tych wszystkich reguł jednocześnie.
Dodatkowo, gdy badacze prosili AI o wytłumaczenie, jak doszła do rozwiązania, modele najczęściej nie potrafiły poprawnie uzasadnić swojego wyboru – jedynie w 5% przypadków odpowiedzi były poprawne. Czasem AI odpowiadała całkowicie niezwiązanymi informacjami, np. prognozą pogody zamiast wyjaśnieniem.
Te wyniki pokazują, że obecne systemy sztucznej inteligencji mają poważne ograniczenia w zadaniach wymagających precyzyjnego i krok po kroku logicznego myślenia. Mimo ogromnych sukcesów w generowaniu tekstu czy tłumaczeniach, AI nadal słabo radzi sobie z problemami, gdzie potrzebna jest ścisła analiza i przestrzeganie zasad.
Naukowcy sugerują, że przyszły rozwój AI powinien skupić się na połączeniu dotychczasowych modeli językowych z mechanizmami logicznego rozumowania. To klucz do stworzenia bardziej zaawansowanych i niezawodnych systemów sztucznej inteligencji.
