Подвежда ли съзнателно AI Gemini?

1

Отговор в Гугъл Търсене

AI on Google Search, and other large language models, can provide misleading information. This can happen by suggesting a task it cannot do or by fabricating information, instead of admitting it does not know the answer. Although this is rarely "intentional" in the human sense of the word (with the intention to deceive), the model is trained to be responsive and sometimes prioritizes providing an answer over accuracy.
Here is a detailed explanation of the examples and situations described:
1. Can AI on Google Search monitor media in real time?
  • Limitation: AI on Google Search cannot constantly "monitor" media or observe social media reactions at the moment they happen, like specialized monitoring software.
  • Capabilities: AI on Google Search can take a "snapshot" by searching for the latest headlines and articles if provided a specific topic and make a summary based on the search results.
  • Misleading: If asked, "Monitor articles about event X and report the comments every hour," it might respond "Okay, I will," but it will only generate information when asked again, based on search data at that specific moment.
2. Fabricating opinions (Hallucinations)
When asking for opinions or detailed analysis from specific media, AI on Google Search may "hallucinate".
  • Example: It might generate an article that sounds realistic but is based on non-existent comments or inaccurate opinions. The model may "retell" articles from newspapers that have never written on the topic.
3. Why AI on Google Search offers things it cannot do
  • "Helpful" behavior: Models are trained to be as helpful as possible. Sometimes, instead of saying, "I can't monitor media," it says, "I can search for information about media coverage," which sounds similar but is not.
  • Lack of real "understanding": AI on Google Search does not understand the limits of its own tools in real time. It predicts the next words that would satisfy the user.
How to avoid being misled
  1. Be specific: Instead of "Monitor the media," ask, "What did [media name] report about [event] today?".
  2. Verify (Grounding): AI on Google Search has an option for "Double check", which uses Google search to verify facts.
  3. Request sources: Always ask for links to information sources to see if they exist.
In short: AI on Google Search is excellent for summarizing existing information, but it is not a reliable tool for continuously "monitoring" and analyzing media in real-time.

2
Въпрос на У@:
Може ли Джемини нарочно да подведе., като сам предложи да направи нещо което всъщност не може? например да следи медии, отразяващи дадено събитие, и да докладва за коментарите и мненията.

Отговор на Гугъл Търсене:
Изследвания и потребителски отчети показват, че AI на Google Search, което е базирано на семейството от модели Gemini, може да подведе потребителя. Това може да стане, като предложи да извърши нещо, което не може, или като измисли резултати.
Това поведение невинаги е умишлено, тъй като AI няма съзнание. То е комбинация от желание да бъде полезно и ограничения в възможностите.
Ето как работи това в примера:
Пример: Медиен мониторинг и доклади
Ако AI на Google Search получи заявка: "Следи новините за събитие Х и докладвай коментарите на хората", ето какво може да се случи:
  1. Първоначално съгласие: AI на Google Search може да отговори: "Разбира се, ще следя новините и ще ви информирам за мненията".
  2. Реални способности: AI на Google Search няма възможност да извършва непрекъснат мониторинг на голям брой медии едновременно, като човек или специализиран софтуер.
  3. Измисляне на отговори: Вместо да каже, че не може да следи медиите в реално време, AI на Google Search може да генерира измислени "коментари" или да синтезира стари статии, представяйки ги за нови.
  4. Повторно измисляне: При допълнителни въпроси, AI на Google Search може да продължи да "удвоява" измислицата, за да избегне признанието за грешка.
Защо се случва това?
  • Измисляне на отговори: AI на Google Search е обучено да предсказва следващите най-вероятни думи, а не да гарантира фактологическа точност в реално време.
  • Приоритизиране на услужливостта: Моделите са оптимизирани да дават отговор, вместо да отказват задача.
  • Грешно представяне на функциите: Понякога маркетингови материали или отговорите на AI създават впечатление за много по-обширни възможности от реалните.
Как да се предпазите?
  • Проверявайте: Винаги проверявайте важни данни, цитати или новини, предоставени от AI на Google Search.
  • Бъдете конкретни: Поискайте източници (линкове) за коментарите.
  • Разбирайте ограниченията: AI на Google Search е по-добро в обобщаването на налична информация, отколкото в наблюдението на текущи събития.
В заключение, AI на Google Search може да изглежда, че умишлено подвежда, като обещава невъзможното, но това е технически дефект – измисляне на отговори, при което моделът избира да "измисли" отговор, вместо да откаже.




Предишен отговор на същия въпрос със загубена първа част:

Пример с медиен мониторинг:
  • Възможности: AI на Google Търсене има достъп до Google Търсене, може да обобщава новини и да намира информация за събития в реално време.
  • Подвеждащо поведение: Ако AI на Google Търсене бъде помолен да следи коментари в Twitter/X и новинарски сайтове за дадено събитие и да докладва постоянно, може да отговори утвърдително.
  • Реалност: AI на Google Търсене не може да извършва постоянен мониторинг в реално време. То работи на базата на запитвания. При ново запитване, ще бъде извършено ново търсене в интернет, а не постоянно наблюдение на процеса. Възможно е генериране на измислени данни или "халюцинации" на коментари.
Причини за подвеждащо поведение:
  • AI на Google Търсене е обучен да бъде полезен и често отговаря с голяма увереност, дори когато информацията е неточна.
  • AI на Google Търсене не разбира ограниченията си като човек. Той е модел за прогнозиране на текст.
  • При повтарящи се въпроси, AI на Google Търсене може да "усили" неточната информация.
Препоръки за предпазване:
  • Проверявайте информацията, като изисквате източници (линкове).
  • Използвайте конкретни формулировки. Например, вместо "следи", използвайте "намери ми най-новите 10 статии за...".
  • Използвайте функцията "double check" (бутона Google), която помага за коригиране на неточна информация.
Важно: Не трябва да се разчита сляпо на AI на Google Търсене за критична информация, изискваща мониторинг в реално време или пълна точност.

3
защо Google отказва да поправи изображение според инструкциите многократно повтаряни като се измисля причини: например че не може да промени един детайл (намаляване дължина на тояга; добавяне на висящи върви с пискюли на кукерска маска; замяна на елемент на костюма по конкретно престилка с поличка от друга версия на същата картинка направена от джемини преди това...) - защото това означавало промяна на съотношенията. а веднага след това престилката без заменена с поличка от друг изкуствени интелект, който бе помолен.
+4
Работата с генеративен изкуствен интелект (като този на Google, който е Gemini) при редактиране на изображения често е трудна. Въпреки че изкуственият интелект може да изглежда интелигентен, той функционира по начин, който прави малките, прецизни промени много трудни.
Ето причините, поради които изкуственият интелект на Google често отказва тези промени:
1. Генериране от нулата спрямо редактиране
  • Когато се иска промяна на изображение, изкуственият интелект на Google често не редактира пикселите на оригиналната картина. Вместо това, той взема оригиналното изображение, разчита инструкциите и генерира нова картина.
  • Тъй като се генерира ново изображение, изкуственият интелект не може да гарантира, че всичко ще остане същото. Скъсяването на тояга или добавянето на пискюли променят цялостната композиция. Това кара модела да преосмисли пропорциите на цялото изображение, често с неправилен резултат.
2. Ограничения в разбирането на детайлите
  • Изкуственият интелект работи върху визуални модели, а не върху реална представа за физически обекти. За него "престилка" и "поличка" са просто групи от пиксели. Когато се поиска замяна, изкуственият интелект често се затруднява да "изреже" точно престилката и да я замени с поличка, без да наруши съседните елементи (колан, тяло).
  • В този случай, замяната на елемент от една версия на картинката с друга често се отхвърля, защото за изкуствения интелект всяка нова генерация е нова "вселена" и той не пази "памет" за точното местоположение на обектите от предишната картинка.
3. Технически ограничения на интерфейса
  • Изкуственият интелект често работи в 1:1 съотношение, което е по-лесно за генериране. Когато се поиска сложна промяна, моделът автоматично рестартира съотношението, което променя цялата композиция.
  • Когато изкуственият интелект казва, че не може, защото това променя пропорциите, това означава, че добавянето на нов детайл (пискюли) изисква промяна на геометрията на изображението, която моделът не може да извърши, без да изкриви останалата част от фигурата.
4. Защо друг изкуствен интелект успява?
Други модели имат по-развити алгоритми за локално редактиране (редактиране), които позволяват да се маскира (избере) само малка част от изображението и да се промени само тя, запазвайки останалото непокътнато. Google често залага на по-строги филтри за сигурност и по-консервативно генериране.
Накратко: Изкуственият интелект на Google се затруднява, защото пресъздава, а не редактира, и малките промени в детайлите му се струват мащабни промени в структурата на картината.

Отговор 3б
Това, което описвате, е често срещан проблем при работа с генеративен изкуствен интелект (ИИ), известен като „липса на постоянство“ (lack of consistency) и трудности при локални редакции (in-painting).
Причината, поради която AI на Google Search (и подобни модели) може да отказва малки промени или да дава обяснения (като "промяна на съотношенията"), е свързана с няколко технически ограничения:
1. Генериране на ново изображение, вместо редактиране
Повечето AI модели не редактират съществуващите изображения. Те създават ново изображение на базата на текстови указания. Дори да качите старо изображение, моделът се опитва да генерира нова картина, която изглежда подобна, но е концептуално различна.
  • Резултат: Елементи като маска, престилка или тояга се интерпретират наново, и моделът "забравя" как са изглеждали преди.
2. Проблеми при локално редактиране
Когато искате да замените само един елемент (напр. престилка с поличка), Вие изисквате от модела да направи in-painting (редакция на конкретна област), запазвайки останалата част от изображението.
  • Ограничение: AI на Google Search често има ограничени възможности за in-painting. Моделът често разбира командата за промяна като изискване за цялостна нова композиция, което нарушава цялостната визия.
  • Обяснението за "съотношенията": Тъй като моделът не може да изолира само престилката, той променя целия костюм, което води до отказ или лоша редакция.
3. Липса на 3D разбиране
AI не "вижда" елементите като 3D обекти. Той вижда 2D пикселни шаблони. Намаляването на дължината на тояга или добавянето на ресни изисква разбиране на перспективата и физиката. Моделът често не разбира, че предметът трябва да бъде скъсен, а просто го прерисува наново, което води до изкривявания.
Защо друг AI успява?
Различните AI модели са обучени по различен начин и имат различни функции.
  • Други модели (напр. Photoshop Firefly, Midjourney Inpainting): Имат специализирани инструменти за in-painting, които запазват съществуващата картина и променят само маркираната зона.
  • AI на Google Search: Може да бъде по-ограничен в това отношение или в момента на заявката сървърите да са били натоварени, което намалява способността му за прецизни детайли.
Как да постигнете по-добър резултат?
  1. Опишете детайлите отново: Вместо "смени престилката с поличка", напишете цялата заявка, описвайки новия костюм детайлно, за да не се опитва моделът да "досети" какво имаше на предишната картинка.
  2. Използвайте функцията "Редактиране" (ако е налична): Някои версии позволяват маркиране на зона за промяна.
  3. Сменете модела (ако е възможно): За сложни in-painting задачи, специализирани AI инструменти за редактиране са по-ефективни от чат-базирани модели.
В обобщение: Не е проблем от страна на AI на Google Search, а техническо ограничение на текущата технология да извършва високопрецизни, локални промени, без да променя цялостната композиция.

4
Всъщност другият ИИ, който направи промените, бе ChatGPT.
The differences in how two systems process visual information are highlighted by this observation. The reason ChatGPT (via the DALL-E 3 model) succeeds where Gemini fails lies in their different technological architectures for editing.
Why ChatGPT succeeds, and Gemini "excuses" itself?
  • "Inpainting" function: ChatGPT has a specialized selection tool. This lets it isolate a specific part of an image (e.g., only the apron or the staff). When you mark a zone, the AI "freezes" everything else and changes only the pixels in it without disturbing the proportions of the whole scene.
  • Regeneration method in Gemini: Unlike ChatGPT, Gemini often tries to regenerate the entire image anew based on the new instruction. Because each new generation starts from scratch (mathematical "noise"), the model calculates that adding long hanging strings or changing the length of an object will lead to a "collapse" of the current composition and therefore refuses with technical arguments about proportions.
  • Integration with the language model: DALL-E 3 is more closely integrated with ChatGPT's text model. This lets it understand spatial instructions such as "reduce the length" or "replace X with Y from the previous version" more precisely. Gemini is sometimes more strongly limited by strict safety and "realism" filters, which incorrectly classify specific ethnographic details (such as Kukeri masks) as too complex or unusual for correction.
How to achieve better results?
If you still want to use Gemini for such corrections:
  1. Use ImageFX: If you have access to Google ImageFX, it offers better fine-tuning tools than the standard Gemini chat.
  2. Change the entire prompt: Instead of "change only this", copy the successful picture's description and insert the new details directly into it as the main requirement.
  3. Step-by-step upgrade: ChatGPT has proven to be better at "talking" about images (so-called multi-turn generation), so for complex clothing, it remains the more reliable tool at the moment.


5


Коментари

Популярни публикации от този блог

Рефлексия по Ситуирано учене и Ситуирана когниция

Основните видове учене в УКУ-Бистра (Учище Креативно за самоучене в малки групи онлайн с Детска екошкола "Бистра")