La pastilla roja de Matrix

Y para el 2021 me pido la pastilla roja

Con la experiencia acumulada de estos meses, en el 2021 toca organizarse bien y dejar de encadenar vídeo reuniones durante todo el día. Qué nos ha pasado? Parece que hayamos tomado la pastilla azul de Matrix para seguir viviendo en un mundo virtual!!!

Nos tenemos que plantear otra manera de vivir. Con el teletrabajo o trabajo online que ha provocado el confinamiento, hemos cambiado los hábitos de comportamiento en general y de la gestión de nuestro tiempo laboral en particular.

Es una cuestión de gestión de tiempo

Si hubieras escogido, como Neo, la pastilla roja ahora estarías utilizando herramientas para agendar y programar las reuniones con lógica y dejando margen para realizar otras actividades, como por ejemplo poner en práctica las conclusiones de las reuniones. Así que mi deseo para el 2021 es que, por favor, nos organicemos mejor. Y como si se tratara de una receta de cocina te voy a explicar los ingredientes que necesitamos y como preparar este plato.

Ingredientes:

  1. Email – Uno que utilices normalmente. No sirve el que pones en Facebook.
  2. Una cuenta de Zoom. A estas alturas debe quedar poca gente en el mundo que no haya hecho un brindis desde una reunión zoom.
  3. Una cuenta en Calendly. Esta es posible que no la conozcas pero se ha convertido en un básico para agendar citas.
  4. Y una cuenta en Zapier. Sobre todo para una gestión Pro de las organización de reuniones.

Preparación:

De las 4 aplicaciones web, Calendly es la que las une a todas. Empezamos con esta. Primero pones el logo o una foto y una descripción. Siguiente paso, borras las propuestas automáticas de calendarios que aparecen y creas una nueva en la que determinas los días y horas que quieres disponer para que te soliciten una reunión, por ejemplo: los lunes de 5 a 6 de la tarde y como máximo puede durar 30 minutos. La programación puede ser periódica o de días señalados, tu decides. Es importante que revises el formulario y los mensajes de confirmación y recordatorios por email y teléfono.

Paso siguiente, desde Calendly no vamos a Integraciones. Conectamos Zoom (también funciona con Teams de Microsoft y Meet de Google) para que genere, de manera automática la reunión cuando alguien reserve una cita. Aquí también podemos conectar: Mailchimp, Salesforce muchas otras y por supuesto Zapier.

Volviendo a la configuración de la programación de citas o reuniones, en ubicación indica que es Zoom y listo. Envías por email la propuesta de reunión con un link a Calendy. Cuando alguien reserve una reunión te enviará un email a ti también y tan solo has de poner en tu agenda el día y hora para entrar en la reunión de zoom, aunque con la versión Premium puedes programar recordatorios al organizador. Ahora ya empiezas a ver las cosas de otro color, como Neo.

Organiza tus reuniones con Calendly y olvídate

Ahora es clara la conexión

Con esta base ya podemos organizar perfectamente una agenda de reuniones pero claro aún se puede hacer mejor.

Una de las posibilidades que nos ofrece la versión Premium de Calendy es la integración con más aplicaciones y la posibilidad de tener una página de confirmación propia, que unida a la conexión con Google Analytics nos da la oportunidad de medir el éxito de nuestras campañas de reuniones desde Google Analytics. A la vez que este control de conversiones de Analytics nos permite conectar con Google Ads, el Pixel de Facebook nos ayuda a medir también las campañas en FB o IG. Y no he olvidado Zapier…cuando alguien cancela la reunión, la mejor manera de mantener la relación con el usuario es enviar un email desde Mailchimp cuando Zapier nos indique el evento de cancelación. Parece algo nimio pero recuerda que la personalización de los mensajes son cruciales y en el caso de una cancelación puede provocar una recuperación tipo Carrito abandonado en e-commerce.

Importante: Cuando te das de alta en Calendly tienes 15 días para utilizar casi todas las integraciones Premium. Cuando finaliza el periodo te quedas con lo justo y la posibilidad de crear un único evento/agenda aunque se mantiene la conexión con Zoom.

Una vez conectado todo esto puedes descargarte la aplicación móvil para gestionar y crear tus reuniones sin tener que abrir un ordenador.

Bueno, hay mucho que hacer en el 2021. Pórtate bien

Y para el 2021 me pido la pastilla roja

 

 

The Algorithmic Justice League in the movement towards equitable and accountable AI.

The Algorithmic Justice League

Con el título The Algorithmic Justice League, Joy Buolamwini (graduada del MIT) puso en marcha en 2016 una organización que lucha por la utilización de la tecnología IA de reconocimiento facial de una manera equitativa y responsable.
Gracias a su investigación de la IA de reconocimiento facial Facebook, Amazon o Microsoft entre otras han paralizado su uso masivo en aplicaciones web por no poder ofrecer garantías. La propuesta es clara hay que poner reglas para controlar dónde va y como se utiliza la información a la par que garantiza la igualdad.

La llaman la poeta del código de la investigación en Inteligencia Artificial (AI) que motivada por una experiencia personal de discriminación del algoritmo de reconocimiento facial, Joy contó su historia en una  TED featured Talk que ya cuenta con más de 1.2 millones de visualizaciones y ayudó a lanzar the Algorithmic Justice League.

 

 

Este es un texto extraido de la webThe Algorithmic Justice League in the movement towards equitable and accountable AI.

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

¿POR QUÉ “EQUITATIVO” Y “RESPONSABLE”?

Hay muchos términos diferentes que se han utilizado para describir un enfoque político de la IA. Queremos tener claro lo que entendemos por equitativo y responsable como algo separado de estos otros enfoques.

LIMITACIONES DE LA IA ÉTICA

La noción de “IA ética” ha sido aprovechada por las grandes empresas tecnológicas -inversores y ejecutivos estratégicamente alineados con el mundo académico y el gobierno- para impulsar los principios voluntarios por encima de la regulación gubernamental. La idea de utilizar la ética no es problemática en sí misma, pero ha dado lugar a una proliferación de “Principios de la IA” con medios limitados para llevar estos principios a la práctica. Un sistema de ética de la IA permite a las empresas rendir cuentas únicamente de las normas que se han fijado para ellas mismas. La pelota está en su tejado de principio a fin. Las apelaciones a la IA ética también pueden ser aprovechadas por el gobierno para justificar políticas cuestionables que no han sido establecidas en la ley. Este es un enfoque limitado desde nuestra perspectiva porque no crea ningún requisito obligatorio ni prohíbe ciertos usos de la IA. Nuestro enfoque es más bien crear una acción que salve la brecha entre los principios y la práctica.

LIMITACIONES DE LA IA INCLUSIVA

Si bien los llamamientos a una IA inclusiva pueden ser bien intencionados, la inclusión por sí sola no apoya el progreso hacia la mitigación del daño. A veces, el respeto de la vida, la dignidad y los derechos puede exigir que un sistema reúna más datos con consentimiento afirmativo, por ejemplo para apoyar la precisión en la medicina de precisión en diversos grupos. Otras veces, incluir más datos puede significar mejorar un sistema que somete injustamente a las poblaciones vulnerables a un escrutinio selectivo adicional. Al servicio de la “inclusión”, los datos también pueden recogerse en violación de la privacidad y sin consentimiento.

Nos interesa crear sistemas robustos de IA cuando sea apropiado, cómo se recogen los datos y el propósito para el que se utilizan, pero es fundamental evaluar la inclusión. Por una parte, podemos tratar de mejorar la IA para limitar las gravísimas consecuencias de los prejuicios y la discriminación, por ejemplo, un coche que se conduce solo y que no detecta ciertos rostros de peatones o una mayor probabilidad de que la policía identifique erróneamente a las personas de piel más oscura como sospechosos de delitos. Al mismo tiempo, debemos seguir cuestionando si ese uso se apoya en nuestros valores y, por lo tanto, debe permitirse en absoluto. Si nos centramos únicamente en mejorar los conjuntos de datos y los procesos informáticos, corremos el riesgo de crear sistemas técnicamente más precisos, pero también más capaces de ser utilizados para la vigilancia masiva y para mejorar las prácticas policiales discriminatorias que permiten el uso de la fuerza letal.