Este gran error muestra por qué no se puede confiar en ChatGPT para las preguntas de seguridad del hogar

Lejos de preocuparme por la IA en la seguridad del hogar, lo que realmente me interesa es ahorrarnos tiempo y hacer las cosas bien, especialmente con el reconocimiento de objetos. Pero eso no significa que debas saltar a ChatGPT y comenzar a hacerle preguntas sobre tecnología doméstica, privacidad o qué tan seguro es un dispositivo.

La IA es excelente si desea que uno de los agentes de Google le avise cuando se entregó o recogió un paquete o que el Vecino de confianza de ADT desbloquee su rostro para un miembro conocido de la familia. pero tu en realidad No debería pedir consejos sobre seguridad, especialmente ahora.

Hay buenas razones para ello: incluso los mejores LLM (grandes modelos de lenguaje) todavía extraen información de los patrones que han recopilado. Ese es un problema particular en el mundo de los hogares inteligentes, donde las especificaciones técnicas, los modelos, la compatibilidad, las vulnerabilidades y las actualizaciones cambian con mucha frecuencia. Es fácil que ChatGPT se confunda acerca de lo que es correcto, actual o incluso real, y estas son preguntas clave al tomar decisiones de seguridad en el hogar. Veamos algunos de los errores más grandes para que puedas entender a qué me refiero.

Las IA del chat alucinan que los Teslas están espiando la seguridad de su hogar

Se proporcionan Tesla Model S y 3 en la estación de pulso pb

El ala de combustible alternativo BP está ampliando su presencia de carga de vehículos eléctricos en los EE. UU. mediante la compra de hardware de carga rápida Tesla DC.

PA

Desde refrigeradores parlantes hasta iPhones, nuestros expertos están aquí para hacer el mundo un poco menos complicado.

Preguntarle a un chatbot sobre una tecnología de seguridad específica siempre es un asunto arriesgado y nada lo demuestra mejor esta famosa historia de Reddit sobre un chat de IA que le decía al usuario que Tesla podía acceder a sus “sistemas de seguridad del hogar”. Eso no es cierto: probablemente sea una alucinación basada en el servicio HomeLink de Tesla, que permite abrir puertas de garaje compatibles. Servicios como Google Gemini también sufren alucinaciones que pueden dificultar la confianza en los detalles.

Aunque la IA puede escribir cualquier cosa, desde ensayos hasta correos electrónicos de phishing (no hagas eso), aún así obtiene información incorrecta, lo que puede causar preocupaciones de privacidad infundadas. Curiosamente, cuando le pregunté a ChatGPT a qué podían conectarse y rastrear los Teslas, no cometió el mismo error, pero hizo omita funciones como HomeLink, por lo que aún no obtendrá la imagen completa. Y eso es sólo el comienzo.

Desde refrigeradores parlantes hasta iPhones, nuestros expertos están aquí para hacer el mundo un poco menos complicado.

Los chatbots no pueden responder preguntas sobre amenazas o desastres domésticos en curso

Respuesta de ChatGPT sobre las condiciones de los huracanes. Respuesta de ChatGPT sobre las condiciones de los huracanes.

La IA conversacional no le brindará detalles importantes sobre próximos incidentes.

Tyler Lacoma / ChatGPT

ChatGPT y otros LLM también tienen dificultades para asimilar y utilizar información en tiempo real para brindar asesoramiento. Esto es especialmente evidente durante desastres naturales como incendios forestales, inundaciones o huracanes. Cuando el huracán Milton tocó tierra este mes, le pregunté a ChatGPT si mi casa estaba en peligro y dónde iba a golpear Milton. Aunque afortunadamente el chatbot evitó respuestas incorrectas, no pudo darme ningún consejo más que hablar con los canales meteorológicos locales y los servicios de emergencia.

No pierda el tiempo en eso cuando su hogar podría estar en problemas. En lugar de recurrir a la IA para obtener una respuesta rápida, hable con aplicaciones meteorológicas y software como Watch DutyÚltimas imágenes satelitales y noticias locales.

Los LLM carecen de actualizaciones críticas sobre violaciones de datos y seguridad de marca

La versión web de ChatGPT responde preguntas sobre la seguridad de Ring. La versión web de ChatGPT responde preguntas sobre la seguridad de Ring.

Aunque ChatGPT puede recopilar información sobre la historia de una empresa de seguridad, omite información clave o se equivoca.

Tyler Lacoma / ChatGPT

Sería fantástico si un chatbot de IA pudiera proporcionar un resumen del historial de una marca con violaciones de seguridad y señales de alerta sobre la compra de sus productos. Desafortunadamente, no parecen ser capaces de hacerlo todavía, por lo que no se puede confiar en lo que tienen que decir sobre las empresas de seguridad.

Por ejemplo, cuando le pregunté a ChatGPT si había habido alguna violación de seguridad en Ring, mencionó que Ring había experimentado incidentes de seguridad, pero no. hora (para 2018), que es una información vital. También pasó por alto acontecimientos clave, como la finalización de los pagos Ring a los clientes afectados este año y una reversión de la política Ring 2024 que dificultó el acceso de la policía a los datos en la nube.

ChatGPT responde una pregunta sobre Wyze. ChatGPT responde una pregunta sobre Wyze.

ChatGPT no es bueno para proporcionar un cronograma de eventos y no se debe confiar en él para hacer recomendaciones.

Tyler Lacoma / ChatGPT

Cuando pregunté sobre Wyze, que CNET no recomienda actualmente, ChatGPT dijo que era una “buena opción” para la seguridad del hogar, pero dijo que hubo una violación de datos en 2019 que expuso el uso de datos de los usuarios. Pero no mencionó que Wyze había revelado bases de datos y archivos de video en 2022, luego una vulnerabilidad en 2023 y nuevamente en 2024 que permitía a los usuarios acceder a videos domésticos privados que no eran de su propiedad. Entonces, si bien los resúmenes son buenos, ciertamente no obtienes una visión completa en lo que respecta al historial de seguridad o si es seguro confiar en las marcas.

Leer más: Le preguntamos a un destacado criminólogo cómo eligen las casas los ladrones

Chat AI no está seguro de si las herramientas de seguridad requieren suscripciones o no

ChatGPT responde una pregunta sobre las suscripciones a Reolink. ChatGPT responde una pregunta sobre las suscripciones a Reolink.

ChatGPT no puede definir adecuadamente las suscripciones o niveles de seguridad.

Tyler Lacoma / ChatGPT

Otra pregunta común sobre seguridad en el hogar que veo es sobre la necesidad de suscripciones para usar sistemas de seguridad o cámaras domésticas. Algunas personas no quieren pagar suscripciones continuas o quieren asegurarse de que lo que obtienen vale la pena. Si bien los chatbots pueden proporcionar muchos detalles de recetas, aquí no ayudan.

Cuando le pregunté a ChatGPT si Reolink requiere suscripciones, no pudo darme ningún detalle y dijo que muchos productos no requieren suscripciones para funciones básicas, pero que Reolink “puede planear una oferta de membresía” para funciones avanzadas. Intenté reducirlo con una pregunta sobre Reolink Argus 4 Pro, pero nuevamente ChatGPT se mantuvo vago acerca de que algunas funciones son gratuitas y otras posiblemente requieran suscripciones. Según van las respuestas, fue prácticamente inútil.

Mientras tanto, una visita a la guía de CNET sobre suscripciones a cámaras de seguridad o La propia página de membresía de Reolink muestra que Reolink ofrece suscripciones de nivel Clásico y Mejorado específicamente para cámaras LTE, desde $ 6 a $ 7 por mes dependiendo de cuántas cámaras desee admitir y hasta $ 15 a $ 25 para almacenamiento adicional en la nube y notificaciones enriquecidas/alertas inteligentes. Encontrar estas respuestas lleva menos tiempo que preguntar a ChatGPT y obtienes números reales con los que trabajar.

ChatGPT tampoco es el lugar para la dirección de su casa o su información personal.

Fotografía digital del chatbot seleccionado frente a la pantalla de mensajes. Fotografía digital del chatbot seleccionado frente a la pantalla de mensajes.

No permita que los chatbots obtengan demasiada información sobre su información personal.

Vertigo3d vía Getty

Como dijo el famoso detective: “Sólo una cosa más.” Si le pregunta a un chatbot sobre la seguridad del hogar, no proporcione ninguna información personal como la dirección de su casa, nombre, lugar de residencia o cualquier tipo de información de pago. había habido errores antes lo que permitió a otros usuarios explotar dichos datos privados.

Además, las políticas de privacidad de LLM siempre pueden actualizarse o dejarse lo suficientemente vagas como para permitir la elaboración de perfiles y la venta de los datos de los usuarios que recopilan. La extracción de datos de las redes sociales ya es bastante malo, ¿verdad? en realidad no desea proporcionar datos personales directamente a un servicio de inteligencia artificial popular.

Ten cuidado con los datos que das en una pregunta e incluso cómo los expresas, porque siempre hay alguien a quien le gusta usar eso. Si cree que ya ha proporcionado su dirección demasiadas veces en línea, tenemos una guía sobre cómo ayudarle a solucionarlo.

Leer más: Sus datos privados están en Internet. Esto es lo que puedes hacer al respecto

Para obtener más información, consulte si debe pagar por funciones ChatGPT más avanzadas, consulte nuestra revisión en profundidad de Google Gemini y lo último en Apple Intelligence.



Fuente