Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Истражување покажува сериозни слабости кај најпопуларните алатки Ново истражување укажува дека четботовите како ChatGPT и Grok често даваат неточни или нецелосни медицински информации. Анализата на 50 медицински прашања покажала дека околу половина од одговорите биле оценети како проблематични. „Халуцинации“, пристрасност и неточни податоци Според резултатите, „Грок“ имал најголем удел на спорни одговори со 58 проценти, додека „ChatGPT“ ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. ...

Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано – „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите – со 58 отсто проблематични одговори. „Чет-ГПТ“ е втор со 52 насто и „Мета ВИ“ – 50 отсто. Според истражувачите, „четботовите многу често ‘халуцинираат’, генерирајќи неточни или погрешни одговори поради пристрасни или ...

Лондон, 15 април 2026 (МИА) - Експертите предупредуваат дека четботовите како што се „Чет-ГПТ“ (ChatGPT) и „Грок“ (Grok) честопати „халуцинираат“ и произведуваат нецелосни и неточни медицински податоци. Имено, ново истражување откри дека половина од информациите дадени како одговор на 50 медицински прашања биле, благо кажано - „проблематични“ и дека сите видови вештачка интелигенција се недоверливи, при што „Грок“ е пред сите - со 58 отсто ...