Blog

El CCTV como herramienta en un plan de seguridad

Los avances tecnológicos son constantes, lo que implica que continuamente debemos consultar el abanico de posibilidades existentes a la hora de montar o mantener un CCTV.

Cuando un cliente solicita a una empresa de seguridad, la planificación y gestión de su seguridad, se pone en marcha un proceso en el que se analizan los riesgos, se fijan unos objetivos de seguridad y se elige una estrategia a seguir. Dentro de ese plan seguramente encontremos la recomendación de la instalación de un CCTV.

cctv
Alberto Sedeño
CCTV se refiere al acrónimo para Circuito Cerrado de Televisión (Closed Circuit Television) y consiste en una instalación de componentes que se encuentran directamente conectados y gracias al cual se crea un circuito de imágenes que no puede ser visto por otra persona ajena a él. Los CCTV se deben adaptar a la naturaleza y las necesidades de seguridad que tenga cada cliente. Un centro comercial tendrá diferentes urgencias y riesgos que una explotación ferroviaria, un domicilio, una fábrica o un polígono industrial.

Los avances tecnológicos son constantes, lo que implica que continuamente debemos consultar el abanico de posibilidades existentes a la hora de montar o mantener un CCTV.

Actualmente el CCTV puede ser instalado en propiedades privadas (fábricas, domicilios u oficinas) y en lugares públicos (calles, transportes, aparcamientos o centros comerciales). Los objetivos que se busca con la instalación del CCTV son:

  1. Prevenir el crimen o el comportamiento antisocial.
  2. Detectar e identificar incidencias.
  3. Reducir el miedo al delito transmitiendo sensación de seguridad.
  4. Recabar pruebas y evidencias.
  5. Ser una herramienta más del lugar.

fuente: cuadernosdeseguridad.com

Google estaría desarrollando un nuevo motor de búsqueda ¿Qué trae de nuevo?

Luego de que Google se enterará que Samsung pretende reemplazar su buscador por el de Bing de Microsoft, el gigante ha estado trabajando en un nuevo motor de búsqueda completamente nuevo impulsado por inteligencia artificial.

De acuerdo con un informe del The New York Times, Google está desarrollando un proyecto que tiene como nombre Magi; en el que están trabajando “diseñadores, ingenieros y ejecutivos que hacen parte de las llamadas salas de sprint para modificar y probar las últimas versiones”.

El diario estadounidense ha revelado que las funciones del nuevo motor de búsqueda están relacionadas con “responder preguntas de ingeniería de software y generar fragmentos de código”.

Así mismo, tendrá una función que permitirá a los usuarios “buscar música a través de una conversación con el chatbot, y ofrecería una experiencia mucho más personalizada que el servicio actual de la compañía, intentando anticiparse a las necesidades de los internautas”.

Te puede interesar: Pánico en Google: Samsung estaría pensando en reemplazar el buscador con Bing en sus smartphones
Según el medio, la compañía tiene trabajando a más de 160 empleados en el desarrollo de Magi; también ha informado que se presentará en un mes con nuevas funciones a las mencionadas anteriormente. Por el momento, solo el motor de búsqueda será socializado en los Estados Unidos, antes de hacer el despliegue a 30 millones de usuarios para fin de año.

El portal de tecnología Engadget reseñó que al preguntarle a Google sobre el informe, este respondió que ha llevado años “incorporando IA a la Búsqueda de Google no solo para mejorar drásticamente la calidad de nuestros resultados, sino también para introducir formas completamente nuevas de búsqueda, como Lens y multibúsqueda”.

“Lo hemos hecho de una manera responsable y útil que mantiene el nivel alto que establecimos para brindar información de calidad. No todos los mazos de lluvia de ideas o ideas de productos conducen a un lanzamiento, pero como dijimos antes, estamos entusiasmados de traer nuevas funciones impulsadas por IA a la Búsqueda, y pronto compartiremos más detalles”, explicó al medio.

Fuente: enter.co

Configura tu plan de energía en el portátil

El plan de ahorro de energía es el que intenta reducir la velocidad de la CPU y disminuir el brillo de la pantalla al máximo para intentar conseguir el mayor ahorro posible en consumo de batería. Puedes activar en Windows el modo de ahorro de batería siempre y cuando tengas un portátil.

En dicho caso, cada plan utiliza diferentes configuraciones para el ahorro de la batería. En Windows 10 podemos acceder al modo de ahorro de batería o las opciones del brillo de la pantalla con sólo hacer clic sobre el icono de la batería que se muestra en la barra de tareas, eso sí, cuando estamos haciendo uso de la batería del portátil.

Para usar el ahorro de batería, selecciona el botón Inicio y, a continuación, seleccione Configuración > Sistema > Batería. De manera predeterminada, el ahorro de batería se activa cuando el nivel de batería baja del 20 %, pero se puede ajustar en la configuración de la batería. Es precisamente este el cambio que puede hacer que tu batería dure más.

Este umbral también es configurable y, por lo tanto, podemos establecer que el modo de ahorro de batería se encienda automáticamente en el porcentaje que queramos para así poder alargar la autonomía de la misma. En lugar de quedarnos con el valor por defecto, podemos ajustar el parámetro para que el ahorro de batería entre mucho antes en juego, por ejemplo cuando baje al 80% después de un tiempo de uso.

Consejos para aumentar la vida de tu batería

Por supuesto, sin unos buenos patrones de uso para que la batería también dure el máximo posible a largo plazo, solamente estaríamos retrasando lo inevitable. Por ejemplo, en el caso de baterías de ion-litio, no es necesario cargarlas al 100%. Incluso existen estudios que demuestran que funcionan mejor a media carga. Lo ideal es mantener la carga entre un 40% y un 60% del total.

Con respecto a la duda más común de todas, es decir, si debemos desconectar el portátil cuando ha llegado al 100%, las recomendaciones de fabricantes como Lenovo aconsejan que lo mejor es desconectarlo si necesitamos el portátil a tope de carga. No desenchufar puede recalentarlas y el calor no es buen amigo de las baterías.

Lo mejor para cargar un portátil es hacerlo cuando el portátil esté apagado, con una temperatura moderada, es decir, ni mucho frio ni mucho calor y, sobre todo, no esperar a que la batería se agote totalmente. En ningún caso se debe cargar el portátil a temperaturas por debajo de cero ni con un calor extremo.

Las baterías de ion-litio también deben calibrarse cada dos o tres meses aproximadamente. Este proceso es necesario, aunque hayamos cumplido las recomendaciones anteriores. Con ello conseguiremos que la información sobre la batería sea la correcta y el medidor no tenga errores. Seguiremos las instrucciones del fabricante para hacerlo en nuestro equipo, aunque por norma general deberemos:

Cargar el portátil al 100% y mantenerlo durante dos horas.
Desenchufar el cargador y usarlo hasta agotar la batería.
Dejarlo apagado unas cinco horas.
Volver a cargarlo al 100%.

Fuente: adslzone.net

¿Cual es el tiempo máximo que deberías tener tu router encendido sin reiniciar?

El router es un dispositivo que todos tenemos encendido prácticamente siempre. Pueden pasar incluso meses sin que lo apaguemos, salvo que haya un corte de suministro puntual. Ahora bien, ¿es bueno dejarlo tanto tiempo encendido? En este artículo vamos a hablar de cada cuánto tiempo deberías reiniciar el router para no tener problemas. El objetivo es lograr una buena estabilidad, velocidad y que no aparezcan cortes.

Reinicia correctamente el router

Ahora bien, reiniciar el router no es solo desenchufarlo y volver a encenderlo inmediatamente. No es un interruptor como si fuera una bombilla. Para reiniciarlo correctamente es fundamental dejarlo apagado al menos entre 20 y 30 segundos y posteriormente volver a encenderlo para que el reinicio sea correcto.

Si lo apagas solo un segundo y lo vuelves a encender, hay procesos que van a seguir igual. No termina de apagarse por completo y, por tanto, no vas a solucionar ciertos problemas que pueda haber. Esperar un poco antes de volver a iniciarlo es lo que realmente te ayudará a evitar problemas.

No deberías esperar a tener problemas para reiniciar el router, sino adelantarte a esos fallos. Así conseguirás que tu conexión sea siempre estable. Incluso puedes conectarlo a un enchufe inteligente y, con algunos modelos, programar reinicios automáticos. Por ejemplo, podrías programar el enchufe para que se apague un minuto, un día a la semana a alguna hora durante la madrugada. Además, algunos modelos de routers también permiten configurar estos reinicios automáticos a través del firmware.

En definitiva, no deberías esperar más de dos meses para reiniciar tu router. Cuanto más frecuentes sean los reinicios, mejor. Así evitarás problemas que afecten al rendimiento de tu conexión y velocidad.

Haz que tu Wi-Fi sea más rápido, y llegue a toda tu casa, con estas recomendaciones…

Los problemas con el Wi-Fi están siempre a la orden del día. Seguro que alguna vez hemos notado que nuestro Wi-Fi va muy lento, que no nos llega bien la señal a ciertas partes de la casa, e incluso que, mientras navegamos, se corta la conexión. Generalmente esto se debe a que usamos router o repetidores de baja calidad, como, por ejemplo, los que nos prestan los operadores cuando contratamos la fibra. Por suerte, es muy fácil acabar, de una vez por todas, con estos problemas. Y, además, sin dejarnos un riñón en el proceso.

Es cierto que un router de gama alta puede ser costoso, por lo que muchos usuarios no están dispuestos a hacer esa inversión. Por suerte, hay una gran cantidad de marcas y modelos, dentro de todo tipo de precios, con los que vamos a poder mejorar nuestra señal Wi-Fi en casa, de forma muy sencilla, y acabar de una vez por todas con estos problemas.

Un buen Wi-Fi Mesh

Un sistema Wi-Fi Mesh nos permite colocar varios repetidores, de forma estratégica, donde la señal empieza a perderse de manera que esta se repita automáticamente para cubrir la mayor superficie posible. Este sistema, además, hace que los dispositivos salten de un punto de acceso a otro, según con el que tengan mejor señal, sin ningún tipo de corte en la conexión.

Activa la barra de tareas secreta de Windows 11: te encantará

El lanzamiento de Windows 11 supuso un cambio radical en cuanto a diseño en Windows 11 y en otras funciones bajo el capó que le ofrecen una mayor seguridad y son las causantes de que muchos equipos se hayan quedado fuera de la actualización y no tengan más remedio que seguir en Windows 11. Con esta nueva versión, Microsoft cambio la posición de los elementos de la barra de tareas y del menú de inicio al centro de la pantalla para adaptarse a los monitores de 16:9 y así que los usuarios no tengan que girar tanto los ojos y la cabeza para interactuar con este botón.

Aunque en el mercado hay un gran número de aplicaciones que nos permiten retomar el diseño de Windows 10, es algo a lo que hay que acostumbrarnos ya que las futuras versiones de este sistema operativo seguirán el mismo camino. Conforme Microsoft ha ido lanzando nuevas actualizaciones, estas han llegado con nuevas funcionalidades, algunas de las cuales están enfocadas a los dispositivos con pantallas táctiles pero que podemos habilitar en nuestro PC, aunque no disponga de esta.

Activar barra de tareas oculta de Windows 11

Windows 11 tiene una interfaz de usuario diferente para los usuarios con pantalla táctil y los que no. Si queremos disfrutar del mismo diseño de la barra de tareas que se encuentra en los dispositivos con pantalla táctil, debemos realizar los pasos que os mostramos a continuación, pasos que requieren de editar el registro por lo que, no está de más, hacer una copia previa antes de hacer cualquier cambio.

Pero, antes de nada, debemos descargar la aplicación Vivetool desde su página web de GitHub. Una vez la hemos descargado, después de descomprimir el archivo, accedemos desde CDM con permisos de administrador y ejecutamos el siguiente código:vivetool /enable /id:39281392

Barra tareas

Una vez instalado, reiniciamos el equipo y abrimos el registro de Windows. Una vez hemos abierto el registro desde el cuadro de búsqueda de Windows utilizando el comando «regedit» sin las comillas, nos dirigimos a la siguiente ubicación:HKEY_CURRENT_USER/Software/Microsoft/Windows/CurrentVersion/Explorer

En el panel de la derecha de este directorio, pulsamos el botón derecho del ratón, seleccionamos Nuevo y, seguidamente, Valor de DWORD (32 bits).

Barra tareas Windows 11

Este nuevo elemento lo llamaremos TabletPostureTaskbar. Una vez creado, pulsamos dos veces sobre él y, en Información del valor, cambiamos el 0 por el 1. Finalmente, para que los cambios que hemos realizado en el registro se muestren en el equipo, debemos reiniciarlo.

Barra tareas oculta Windows 11

Para poder activar esta función es necesario disponer de la versión 22621.755 de Windows 11. Una vez hemos reiniciado el ordenador, la barra de tareas se mostrará con el mismo diseño que los equipos gestionados por Windows 10 que tienen una pantalla táctil. El funcionamiento es muy similar a la opción de Windows que nos permite ocultar la barra de tareas cuando no la estamos utilizando, ya que se esta se oculta, pero muestra una línea que nos indica que esta está disponible si acercamos el ratón hacia la línea para mostrarse.

Fuente: softzone.es

¿En 2023 sí habrá red 5G en Colombia?

La red 5G se expande por el mundo a un ritmo prometedor. Las estimaciones indican que la tecnología de quinta generación podría superar los mil millones de usuarios este año, en comparación con los cuatro años que tardó la 4G en alcanzar esa cobertura. En América Latina y el Caribe los esfuerzos en el avance de la implementación de esta tecnología han sido significativos para la región, sin embargo, es la red 4G LTE la dominante y así se mantendrá a corto plazo, ya que, según estimaciones, representará el 70 % de las conexiones móviles para 2025, pues actualmente triplica el número de redes operativas a nivel global con respecto a las alcanzadas por la 5G.

¿Cuál es el panorama en Colombia?

Gracias a la gran aceptación por parte de los colombianos a los datos móviles y al crecimiento de la red de fibra óptica, el país se está preparado para iniciar la transición a 5G, buscando que todos los habitantes del territorio colombiano puedan contar con redes más confiables, con más servicios y costos menores, más velocidades de descarga y nuevas producciones de ideas que dinamicen el crecimiento económico de la nación.

Sin embargo, antes de comenzar el despliegue de 5G en las grandes ciudades, la verdadera meta a corto plazo debería ser expandir e invertir más en las redes 4G en todos los territorios, incluyendo a la Colombia rural y profunda; ya que se prevé que los despliegues comerciales iniciales de 5G se realicen con base en las coberturas de 4G actuales, por lo que resulta importante aprovechar la tecnología e infraestructura de las redes actuales que todavía tienen mucho recorrido por delante.

Desde 2019 se publicó el Plan 5G, con el que se viene trabajando para trazar una hoja de ruta que contenga el desarrollo, despliegue y operación de conectar a Colombia. La promesa es comenzar operaciones de la tecnología de quinta generación en estos primeros meses del 2023. Para ello, se ha permitido que varios sectores del país hayan experimentado las ventajas de esta tecnología y los operadores han ejecutado sus fases de prueba en diferentes ciudades del país. Al mismo tiempo, se ha promovido el desarrollo a través de acciones como la modernización sectorial y el acceso temprano al espectro para 5G, dinamizando el conocimiento y la adopción temprana de esta tecnología en el país.

¿Qué desafíos se deben enfrentar?

El docente Antonio Ricardo González, docente de la Escuela Tecnologías de la Información y la Comunicación del Politécnico Grancolombiano, explica los desafíos que enfrenta el país para este despliegue:

  1. El reto principal es que el gobierno se decida a licitar cuanto antes las nuevas bandas del espectro para 5G. Hasta ahora solo se ha permitido a las empresas operadoras realizar pruebas o un despliegue 5G, pero en baja capacidad y usando infraestructura 4G.
  2. Facilitar el progreso tecnológico con modificaciones a las legislaciones actuales, o creando nuevas leyes para la instalación de las antenas 5G que se requirieren, pero que hasta el momento presentan diversos problemas y trabas para su instalación. A largo plazo, el país debe haber triplicado la infraestructura con el despliegue de 56 mil nuevos sitios que atiendan la creciente demanda de conectividad, puesto que, si las redes no se construyen oportunamente, los diversos sectores de la economía no se desarrollarán, ni crecerá su productividad.
  3. Actualizar las normativas regulatorias de los servicios de telecomunicaciones, ya que están quedando desfasadas y se están convirtiendo en un impedimento para tener un buen nivel de servicio. En ese sentido, las empresas operadoras deben sentirse alentadas en competir sin sacrificar la calidad del servicio.
  4. Los precios del espectro tienen que bajar radicalmente para cumplir sus objetivos en materia digital. Para eso se debe reconstruir la política pública y maximizar el bienestar social, fijando precios que reflejen la realidad del mercado y la realidad macroeconómica. En otras palabras, hay que comenzar a pensar el espectro como una herramienta con beneficios socioeconómicos, más que solo con propósitos recaudatorios. El costo del espectro en Colombia es 3 veces más costoso que el del resto de América Latina.
  5. También reevaluar los precios competitivos de las telecomunicaciones, debido a que la pandemia, incrementó 40 % el uso de las redes y actualmente la cifra de terminales frente a lo que es la población, va en 150 %, pero los ingresos de los operadores no crecen igual que la necesidad de la inversión.
  6. Existe un déficit en la asignación del espectro en diferentes bandas de frecuencia, principalmente en medias y altas, por eso el gobierno debe ponerlo a disposición.

¿Qué tanto ha avanzado Colombia en telecomunicaciones?

El docente del Politécnico Grancolombiano explica los avances de las tecnologías de comunicaciones móviles 2G, 3G y 4G, presentes actualmente en Colombia. Afirma que la tecnología 2G fue con la que se iniciaron las comunicaciones móviles en Colombia en 1994 y todavía hay zonas del país que tienen este tipo de antenas funcionando. Esta tecnología debía tener su fin el 15 de octubre de 2022, cuando se apagaran las últimas antenas, pero esto no ha sucedido en su totalidad.

Entre tanto, las 3G llegaron en el año 2000, fueron las primeras en ofrecer datos con velocidades de hasta 75 MB/s y en integrar elementos que no son teléfonos, por ejemplo, los equipos de monitoreo ambiental, alarmas de seguridad para viviendas o empresas, entre otros. Es una red de soporte para estas aplicaciones y además brinda cobertura donde la tecnología 4G no ha sido implementada o presenta baja señal. Algunas empresas de comunicaciones proponen apagar las redes 3G, con el argumento de que con la misma cantidad de energía que se utiliza para comunicar un usuario en 3G, se pueden comunicar cientos de personas en 4G.

Las 4G o LTE advanced oficialmente fueron lanzadas a nivel mundial en 2009, pero Colombia inició esta red hasta el año 2019, siendo uno de los pocos países que demoró más de diez años en realizar este cambio. Los motivos del atraso fueron de orden económico, es por ello que, durante varios años se encubrió esta situación con falsa publicidad en medios al ofrecer 3G LTE como 4G. La verdadera red 4G emplea la tecnología LTE advanced, que es un paso muy grande en las comunicaciones porque es la primera red orientada 100 % a los datos y a las llamadas de voz.

En 2022, las empresas de comunicaciones efectuaron pruebas para implementar las 5G en el país, que llegarían a cubrir principalmente la necesidad de conectividad entre dispositivos, es decir, poner en servicio la tan esperada (IoT) internet de las cosas, con lo cual tendremos, además de las personas con mejores servicios, millones de dispositivos interconectados compartiendo información entre sí. Todo esto genera incertidumbre al no saber qué impacto ocasionará y cuáles serán las nuevas oportunidades que tendrá Colombia con la implementación de esta nueva tecnología.

El docente agrega que, con el objetivo de avanzar en la conexión del país, se ha hablado de la llegada de la banda de 6 GHz que será libre, gratuita y apoyará a pequeños operadores a fortalecer las conexiones Wi-Fi de los colombianos. Esta se encargará de atender la creciente demanda de datos, contenidos y aplicaciones, mejorará la velocidad y capacidad de descarga en internet, pero también cerrará la brecha digital que existe a lo largo del territorio al llegar a regiones rurales apartadas del país. En este sentido, la nueva generación de tecnologías móviles es una realidad que trata de avanzar, concluyó el académico.

Fuente: technocio

El primer restaurante de Bogotá atendido por meseros robots

El mundo de la tecnología ha llegado tanto para ser un aliado del hombre, como para ocupar algunos puestos laborales que hasta el momento solo los humanos ocupábamos. Así como ya existe una Inteligencia Artificial capaz de escribir por ti casi lo que desees, también han creado robots capaces de servirte a la mesa. Estos robots aterrizaron en Bogotá y atienden un restaurante al norte de la ciudad.

El Japonés Kaiten es un restaurante ambientado al mejor estilo del país asiático en el que te atenderán meseros robots. Por supuesto, estas máquinas andantes fueron programados con anterioridad para servir con distintas funciones. Además, son controlados de manera remota para dejar un corto espacio a los errores.

El restaurante fue inaugurado hace tan solo un mes en la ciudad de Bogotá, donde programaron sus robots de manera que recuerden por donde caminan. Es decir, los robots tienen grabados en sus sistemas el mapa del restaurante, de esta manera, logra llegar con el pedido al comensal. El personal del restaurante es el encargado de indicar a la máquina a qué mesa debe dirigirse. Éste, inmediatamente obedece y lleva el pedido a la mesa.

Los “robots meseros” cuentan con tres compartimentos donde transporta los platos desde la cocina hasta la respectiva mesa. Tiene una pequeña pantalla que, de frente muestra un par de ojos que reflejan felicidad, mientras que por la parte posterior cuenta con los controles. Desde esta pantalla, los trabajadores de El Japonés Kaiten le indican al robot a dónde debe dirigirse. Luego de recibir la orden, este se desliza por el lugar, cuenta con sensores que detectan cuando el comensal ha retirado el plato de su compartimento y se retira.

Te puede interesar: Factú App, la aplicación con la que puedes «pagar menos impuestos»
Además de los robots meseros, el restaurante precisamente integra el sistema “Kaiten”, que consiste en una cinta o banda giratoria por la que van pasando diferentes platos. Los comensales pueden sentarse cerca a la barra o acercarse a esta para tomar la comida que deseen consumir. Para ello, deben pagar por el servicio “All you can eat” por un valor de $60mil pesos colombianos, el cual les permite consumir lo que deseen durante una hora.

Los usuarios podrán disfrutar de platos como wok, brochetas de carne, sushi y muchos más en la Calle 82 #14 a – 08. Además de ser atendidos por robot, podrán encontrar el servicio de meseros humanos vestidos de Power Rangers.

6 consejos para evitar el robo de tus datos personales en redes sociales

Millones de usuarios de las redes sociales suelen ser más vulnerables a sufrir de violencia digital, al compartir su información privada sin darse cuenta. Lamentablemente, todo lo que se sube a las redes sociales, se convierte en una oportunidad que los ciberdelincuentes utilizan para amenazar y extorsionar a sus víctimas.

A medida que surgen nuevos avances en la tecnología se multiplican los tipos de violencia digital y ciberdelitos. Uno de estos, es el conocido Doxing o Doxeo, que consiste en investigar y difundir información privada a través de las redes sociales. Este tipo de ciberdelincuencia, permite identificar, incluso, ubicar a una persona sin su consentimiento previo. Por supuesto, esto se hace con el fin de acosar, avergonzar, amenazar o extorsionarla, todo a cambio de beneficios económicos o datos relevantes.

Debes saber que cualquier persona que se encuentre en el mundo de las redes sociales puede estar expuesta a sufrir este tipo de ciberdelitos. Sin embargo, existen formas de evitarlo y controlar la información que se comparte para impedir que personas maliciosas puedan llegar a ella. Noventiq, compañía de ciberseguridad, compartió estos 6 consejos para no caer en un ataque doxing.

“Entendemos que actualmente es prácticamente imposible permanecer desconectado de las redes sociales, pero sí nos preocupa nuestra seguridad, entonces debemos intentar facilitar a Internet la menor cantidad de información posible que después nos pueda causar daños y perjuicios sumamente graves en todo tipo de aspectos personales.” finalizaron desde Noventiq.

Reforzar la atención y el cuidado de lo que se pública en las redes sociales, como ubicación en tiempo real, chats, correo electrónico, número telefónico y, si es posible, mantener el perfil privado.
Aplicar capas con el mayor número de medidas posibles para reforzar la seguridad de los datos, desde cambiar las contraseñas y reforzarlas.
Revisar la configuración, permisos y cambios de condiciones de cada red social, o aplicación.
Practicar el egosurfing, es decir, buscar información propia en la web para ver qué tipo de datos están vinculados a tu nombre.
Hemos visto que el comercio online a través de las redes sociales cada vez tiene más éxito al ser rápido y eficiente, además de lograr una comunicación con el vendedor, casi inmediata. En estos casos, no facilitar datos financieros a un perfil sin antes verificar que, efectivamente, es legítimo y seguro, es clave para no ser víctima del doxing.
Otro aspecto importante, aunque no solo relacionado con las redes sociales, es salvaguardar la información del dispositivo que se utiliza cuando se conecta a una red Wi-Fi. Es importante validar que esa red sea segura.

Imagen: Pexels

¿Windows Defender es suficiente para proteger su computador?

Las amenazas informáticas evolucionan con rapidez. Cada vez que un virus es descubierto o una vulnerabilidad es corregida, no hay que esperar demasiado para que otra vea la luz. Por eso, los propios sistemas operativos (SO) ofrecen sus protocolos de seguridad. En el caso de los computadores que usan Windows, Microsoft brinda su paquete de seguridad, Windows Defender, que viene instalado de forma nativa.

¿Windows Defender es lo suficientemente eficaz por sí solo para mantener sus equipos protegidos? ¿Se debería adoptar alguna otra medida de seguridad?

Hay que tener en cuenta que en un computador la seguridad es descentralizada. No todo se trata del antivirus, gratuito o de pago. Por ejemplo, los principales navegadores de internet pueden detectar y bloquear sitios maliciosos. Lo mismo ocurre si estamos por descargar algún programa no reconocido.

En el caso de los proveedores de correos electrónicos, estos se encargan de analizar archivos adjuntos en busca de virus antes de que sean descargados. Además, no podemos negar lo eficaces que son contra los mensajes de spam. Todos estos factores se van sumando y, junto con el antivirus, crean un muro bastante sólido que impide que softwares o amenazas informáticas pasen con facilidad.

Hablan los expertos

Fabio Assolini, director del Equipo de Investigación y Análisis para América Latina en Kaspersky, considera que sí es necesario tener un antivirus, ya que el que viene preinstalado con Windows no es suficiente.

“Windows Defender es un antivirus muy básico, no tiene recursos avanzados de protección, por ejemplo, contra ataques más complejos de ransomware, que son códigos maliciosos que secuestran los archivos de nuestro computador y por los cuales piden un rescate. Además, es muy fácil que un código malicioso, al instalarse en un sistema, desactive el antivirus de Microsoft. Con otro producto que tiene más experiencia y más conocimiento de las amenazas eso sería mucho más difícil, quizá imposible”, señala Assolini.

Por su parte, Élmer Quiroz, especialista en ciberseguridad y docente de la Universidad Científica del Sur (Perú), concuerda con Assolini en cuanto a que lo más indicado sería tener una capa de seguridad extra.

“Cuando (el antivirus) viene por defecto en el sistema operativo o, inclusive, cuando se da a conocer un SO nuevo, siempre trae detrás de él vulnerabilidades, porque es la primera versión. Posteriormente se va a ir actualizando, pero se trata de una seguridad muy básica. Lo ideal es tener otro antivirus más completo para proteger nuestro computador”, señala el experto en ciberseguridad.

(También: El controversial correo de Elon Musk a sus empleados para ‘ponerse la diez’)

“Ahora, hay muchos tipos de antivirus y de todos los precios. Hay servicios que brindan solo antivirus, otros que vienen con antimalware o con antispyware. Sería ideal tener los tres, pero ya depende de las necesidades y economía de cada usuario”, agrega Quiroz.

En un artículo para Wirecutter, de The New York Times, los periodistas Kevin Purdy y Thorin Klosowski, tras un exhaustivo análisis de informes y pruebas en laboratorios informáticos, llegaron a la conclusión de que no se puede confiar la seguridad de nuestro computador a un solo antivirus, ya que han demostrado ser vulnerables en alguna ocasión. Ninguno de estos programas puede detectar absolutamente todos los softwares y ataques malintencionados que llegan al equipo.

Por eso, el usuario debe tomar un rol activo en la protección de su información. “Se necesitan contraseñas seguras, inicios de sesión de dos factores, cifrado de datos, copias de seguridad de todo el sistema, actualizaciones automáticas de software y herramientas de privacidad inteligentes. Y también se debe tener en cuenta lo que se descarga y hacerlo únicamente de fuentes oficiales, como Microsoft App Store o App Store. Muy importante también es evitar descargar y abrir archivos adjuntos de correos electrónicos, a menos que se esté muy seguro de que son confiables”, señalan los periodistas en su artículo.

A su vez, Jared Newman escribe para el medio especializado PCWorld que “Windows Defender rivaliza con otros programas en la detección de virus. Aunque no siempre ha sido así, la detección de Microsoft ha mejorado considerablemente en los últimos años, hasta el punto de que AV-Test lo califica regularmente con un 6 de 6 en protección, facilidad de uso y rendimiento, superando la media del sector”.

Para Newman, el antivirus, al fin y al cabo, no es más que otra línea de defensa. Y para la mayoría de usuarios, las defensas integradas de Microsoft deberían ser lo suficientemente fuertes. En esto concuerdan también los periodistas de The New York Times. Y, al igual que lo hace Quiroz, consideran que si se quiere añadir una capa extra de seguridad, es válido descargar un antimalware, que podría detectar aspectos que Defender podría pasar por alto.

Depende de cada uno finalmente elegir el tipo de defensa que le conviene más. Probablemente para usuarios avanzados, o que manejan información confidencial o de riesgo, es importante que adquieran la mayor protección posible.

Fuente: eltiempo.com