Съвременните технологии ни дават много неща.

Google и Microsoft chatbots участват в събирането на статистика за Super Bowl


Εάν χρειαζόσασταν περισσότερες αποδείξεις ότι το GenAI είναι επιρρεπές στο να φτιάχνει πράγματα, το chatbot Gemini της Google, πρώην Bard, πιστεύει ότι το Super Bowl του 2024 έχει ήδη συμβεί. Έχει ακόμη και τα (φανταστικά) στατιστικά στοιχεία για να το υποστηρίξει.

Според Reddit Нишка, Близнаците, υποστηρίζεται από τα ομώνυμα μοντέλα GenAI της Google, απαντά σε ερωτήσεις σχετικά με το Super Bowl LVIII σαν το παιχνίδι να ολοκληρώθηκε χθες — ή εβδομάδες πριν. Όπως πολλές εταιρείες στοιχημάτων, φαίνεται να ευνοεί τους Chiefs έναντι των 49ers (συγγνώμη, οπαδοί του Σαν Φρανσίσκο).

Gemini украсява доста креативно, като поне в един случай дава на играч разбивка на статистиката, която предполага, че куотърбекът на Kansas Chiefs Патрик Махоумс се втурна за 286 ярда за два тъчдауна и прихващане към 253 ярда и тъчдаун на Брок Пърди.

Δεν είναι μόνο ο Δίδυμος. chatbot Copilot της Microsoft, επίσης, επιμένει ότι το παιχνίδι έληξε και παρέχει εσφαλμένες αναφορές για να υποστηρίξει τον ισχυρισμό. Αλλά — ίσως αντικατοπτρίζει μια προκατάληψη του Σαν Φρανσίσκο! — λέει ότι οι 49ers, όχι οι Chiefs, βγήκαν νικητές «με τελικό σκορ 24-21».

Втори пилот на Супербоул

Кредити за изображения: Кайл Уигърс / TechCrunch

Το Copilot τροφοδοτείται από ένα μοντέλο GenAI παρόμοιο, αν όχι πανομοιότυπο, με το μοντέλο που υποστηρίζει το ChatGPT του OpenAI (). Αλλά στις δοκιμές μου, το ChatGPT δεν ήθελε να κάνει το ίδιο λάθος.

ChatGPT Супербоул

Кредити за изображения: Кайл Уигърс / TechCrunch

Всичко е доста глупаво – и вероятно вече е решено, като се има предвид, че този репортер не е имал късмета да възпроизведе отговорите на Gemini в нишката на Reddit. (Ще бъда шокиран, ако Microsoft също не работи върху поправка.) Но също така показва основните ограничения на сегашния GenAI - и опасностите от прекаленото разчитане на него.

GenAI моделите нямат реална интелигентност. Като се захранват с огромен брой примери, обикновено от публичната мрежа, моделите на ИИ научават колко вероятно е да се появят данни (напр. текст) въз основа на модели, включително контекста на всяка среда с данни.

Този базиран на вероятност подход работи изключително добре в мащаб. Но докато на на думите и техните вероятности са вероятно за да стигнем до текст, който има смисъл, изобщо не съм сигурен. LLM може да произведе нещо, което е граматически правилно, но безсмислено, например – като твърдението за Golden Gate. Или могат да бълват неточности, разпространявайки неточности в своите данни за обучение.

Не е злонамерено от страна на LLM. Те нямат злоба и понятията истина и лъжа нямат значение за тях. Те просто са се научили да свързват определени думи или фрази с определени значения, дори ако тези асоциации не са точни.

Следователно Супербоулът на Джемини и Копилот е лъжлив.

Google и Microsoft, като повечето доставчици на GenAI, с готовност признават, че техните GenAI приложения не са перфектни и всъщност са склонни към грешки. Но тези признания идват под формата на малки букви, бих казал, че лесно могат да бъдат пропуснати.

Дезинформацията за Super Bowl със сигурност не е най-вредният пример за провал на GenAI. Това разграничение вероятно е лъжливо валидиране мъчение, бустер етнически и расови стереотипи или убедително писане относно теориите на конспирацията. Това обаче е полезно напомняне да проверите отново изявленията от GenAI ботове. Има голяма вероятност да не е вярно.



VIA: techcrunch.com

Следете TechWar.gr в Google Новини

отговор