banner
Hogar / Noticias / Uber yo
Noticias

Uber yo

Jun 13, 2023Jun 13, 2023

Hola y bienvenido de nuevo a Eye on AI. Soy Sage Lazzaro, reemplazando a Jeremy.

Mientras la mayoría de la gente desconectaba el viernes por la noche para disfrutar de otro sofocante fin de semana de verano, un caso legal histórico sobre quién tiene la responsabilidad cuando la IA está directamente involucrada en daños físicos en el mundo real finalmente llegó a su fin después de cinco años.

Rafaela Vásquez, la operadora al volante de un auto de prueba autónomo de Uber que atropelló y mató a un peatón en Tempe, Arizona, en 2018, se declaró culpable de un cargo de peligro. El juez del Tribunal Superior del condado de Maricopa, David Garbarino, aceptó el acuerdo de declaración de culpabilidad y la sentenció a tres años de libertad condicional supervisada, cerrando el caso definitivamente. Vásquez fue acusado originalmente de homicidio por negligencia, un delito grave que conlleva una sentencia de hasta ocho años de prisión.

El accidente de 2018, en el que una mujer llamada Elaine Herzberg murió mientras cruzaba la calle en bicicleta, fue la primera colisión fatal que involucró a un vehículo totalmente autónomo. El caso cautivó a los observadores mientras Uber y Vásquez buscaban cada uno de ellos desviar la culpa por una situación que no sólo carecía de precedentes, sino que planteaba varias preguntas sobre la responsabilidad en un mundo donde los trabajadores humanos monitorean cada vez más las máquinas de inteligencia artificial, reciben instrucciones de los algoritmos y se sientan en primera línea. de sistemas de IA imperfectos construidos por ingenieros corporativos.

Cuando ocurrió inicialmente el accidente, Vásquez pensó que Uber la respaldaría, según una entrevista en profundidad con Wired publicada el año pasado. Estaba realmente entusiasmada con la floreciente industria y se veía a sí misma como una administradora orgullosa de la empresa, haciendo su trabajo de monitorear los vehículos autónomos de la empresa mientras acumulaban millas de práctica. Arizona, que estaba aflojando las restricciones para atraer más negocios de empresas de Silicon Valley, se había convertido recientemente en un paraíso para el programa de pruebas en carretera de Uber después de que California revocara los registros de los automóviles Uber. El médico forense calificó oficialmente la muerte de Herzberg como un accidente, y Uber inicialmente le proporcionó a Vásquez un abogado, pero las interacciones con su supervisor rápidamente pasaron de ser "consoladoras a desconcertantes", según Wired.

Las mareas realmente cambiaron para Velásquez cuando la investigación reveló que su teléfono personal estaba transmitiendo el programa de televisión The Voice en el momento del accidente. Las imágenes de la cámara del tablero también mostraron que ella estaba mirando hacia abajo en los momentos previos a la colisión, y el análisis policial determinó más tarde que Vásquez podría haber tomado el auto a tiempo y consideró que el incidente era “completamente evitable”.

Si bien el caso no llegó a juicio, la defensa de Vásquez estuvo repleta de argumentos que apuntaban a la culpabilidad de su empleador. En presentaciones legales, Vásquez afirmó que no estaba mirando sino solo escuchando The Voice, lo cual estaba permitido según las pautas de Uber. Y cuando miraba hacia abajo, era para revisar los mensajes de Slack en su dispositivo de trabajo, que, según ella, debía ser monitoreado en tiempo real. Históricamente, esto lo manejaba un segundo operador, pero Uber había revocado recientemente el requisito de tener dos operadores de prueba en cada vehículo y ahora tenía conductores de respaldo como Vásquez trabajando solos. Esto cambió la dinámica del trabajo, incluida la forma en que los operadores ingresan sus comentarios al sistema de conducción, y llevó a turnos largos y solitarios dando vueltas por las mismas carreteras, generalmente sin incidentes ni necesidad de intervenir.

En otra parte clave de su defensa previa al juicio, los abogados de Vásquez citaron un fallo de la Junta Nacional de Seguridad en el Transporte que encontró que el automóvil no identificó a Herzberg como un peatón, lo que provocó que no frenara. La junta también encontró que Uber tenía “una cultura de seguridad inadecuada” y no logró evitar la “complacencia con la automatización” entre sus operadores de prueba, un fenómeno bien documentado en el que los trabajadores encargados de monitorear los sistemas automatizados llegan a confiar en que las máquinas lo tienen bajo control y dejan de hacerlo. prestar atención. Además, un exgerente de operaciones de la empresa presentó una denuncia sobre un patrón de malas prácticas de seguridad en la división de vehículos autónomos pocos días antes del accidente.

"Esta historia destaca una vez más que los accidentes que involucran a la IA son a menudo 'problemas de muchas manos' donde diferentes agentes tienen una parte de responsabilidad", dijo Filippo Santoni de Sio, profesor de ética y filosofía tecnológica en la Universidad Tecnológica de Delft, que se especializa en Responsabilidad moral y legal de la IA y la robótica. Ha escrito anteriormente sobre este caso.

"Si bien Uber o los reguladores han salido claro de las investigaciones legales", añadió, "claramente tienen una gran parte de responsabilidad moral por la muerte de Elaine Herzberg".

A medida que las empresas de todos los sectores integran rápidamente la IA a un ritmo vertiginoso, existe una necesidad apremiante de interrogar las cuestiones morales, éticas y comerciales que surgen cuando los trabajadores humanos trabajan cada vez más con sistemas de IA en cuya creación no participaron y a instancias de ellos.

La semana pasada, el senador demócrata de Pensilvania Bob Casey argumentó que la IA será la próxima frontera en la lucha por los derechos de los trabajadores y presentó dos proyectos de ley para regular la tecnología en el lugar de trabajo. Una, llamada “Ley contra jefes robóticos”, prohibiría a las empresas utilizar sistemas algorítmicos y automatizados para tomar decisiones que afecten al empleo, mientras que la otra apunta a la vigilancia de los lugares de trabajo mediante IA. Ninguno de estos proyectos de ley se relaciona directamente con situaciones como la de Vásquez (aunque aparentemente afectarían a los conductores de viajes compartidos y a los empleados corporativos dirigidos por algoritmos de Uber), pero son solo una pequeña muestra de lo que el Congreso, la UE y otros gobiernos de todo el mundo están considerando. en términos de regulación de la IA para el lugar de trabajo y más allá. Los derechos de los trabajadores en la era de la IA están incluso ocupando un lugar central en la actual huelga de Hollywood, donde los actores están luchando contra una cláusula en su contrato que permitiría a los estudios pagarles por un día de trabajo y luego replicar su imagen a perpetuidad usando IA.

"La disputa legal sobre la responsabilidad ha terminado", dijo Santoni de Sio sobre el caso de Vásquez, "pero el debate ético y político apenas comienza".

Dicho esto, aquí está el resto de las noticias sobre IA de esta semana.

Sabio Lázarosagelazzaro.com

Google lanza el modelo de robótica RT-2 entrenado en sus modelos de lenguaje de IA. Esto es según el New York Times, que obtuvo una vista previa de un robot de un brazo impulsado por la plataforma RT-2. En una demostración, el robot completó con éxito una variedad de tareas que requirieron razonamiento e improvisación, como seleccionar correctamente el dinosaurio cuando se le ordenó "recoger el animal extinto" de una fila de figuras de animales. Históricamente, los ingenieros entrenaban a los robots para realizar tareas mecánicas programándolos con una lista explícita de instrucciones, lo que significaba que los robots sólo podían aprender las tareas lentamente y una a la vez, lo que limitaba su función. Pero RT-2, entrenado con texto e imágenes de Internet, aprovecha los últimos avances en modelos de lenguaje de gran tamaño para permitir que los robots aprendan nuevas tareas por sí solos.

Biden busca limitar las inversiones en IA en China. Eso es según Bloomberg, que informó que el presidente Joe Biden planea firmar una orden ejecutiva que limita las inversiones tecnológicas estadounidenses críticas en China a mediados de agosto. La orden se centrará en la inteligencia artificial, los semiconductores y la computación cuántica y se espera que prohíba ciertas transacciones, sin afectar los acuerdos actuales existentes.

Las restricciones entrantes hacen que el precio de las GPU Nvidia AI se dispare en China. Mientras Estados Unidos toma medidas enérgicas contra el intercambio de tecnología entre el país y China, las GPU con inteligencia artificial de Nvidia se venden por hasta 70.000 dólares por unidad, más del doble de lo que se venden en Estados Unidos, según Tom's Hardware. Y eso si es posible conseguir uno. Dado que la mayoría de los clústeres de IA se basan en las GPU de Nvidia, existe una gran demanda por parte de las empresas que necesitan unidades para respaldar sus sistemas a medida que crecen.

La facultad de derecho anuncia que los estudiantes pueden usar ChatGPT y otra IA generativa en aplicaciones. Según Reuters, la Facultad de Derecho Sandra Day O'Connor de la Universidad Estatal de Arizona dio a los solicitantes el visto bueno para utilizar IA generativa para redactar sus materiales de admisión. Dean Stacy Leeds dijo que es sólo “una más de las herramientas que tienen en su caja de herramientas” y que muchos solicitantes ya pagan por la ayuda de consultores profesionales, mientras que la IA generativa es ampliamente accesible. Los solicitantes que utilicen herramientas como ChatGPT en sus aplicaciones deben certificar que utilizaron IA y que la información es verdadera, tal como se les pide que lo hagan si contaron con la ayuda de un consultor profesional. La decisión es opuesta a otra reciente de la Facultad de Derecho de Michigan, que prohibió explícitamente a los futuros estudiantes utilizar la tecnología para las admisiones.

¿Qué viene después de Transformers? El actual tsunami de avances en IA se debe a una innovación en particular: el Transformer. Descrito por primera vez en un artículo de investigación de Google de 2017, este tipo de modelo de red neuronal ha desbancado casi por completo a sus técnicas predecesoras y ahora sustenta la mayoría de los modelos de aprendizaje automático reinantes, desde BERT hasta los diversos modelos GPT de OpenAI, donde la "T" significa Transformador. . Ahora los investigadores de Stanford están buscando alternativas al enfoque Transformer, notoriamente pesado (y costoso) que podría ofrecer el mismo rendimiento con más eficiencia, y denominan a la nueva línea de investigación "Monarch Mixer". En una prueba que implicó volver a entrenar a BERT con sus técnicas, que esencialmente implica reemplazar los elementos principales de un Transformador con matrices Monarch, los investigadores dicen que pudieron obtener "resultados bastante decentes, incluso con menos parámetros". Esto no significa que el Transformer esté a punto de desaparecer todavía, pero es un comienzo interesante para lo que podría ser la siguiente fase de modelos. Puedes leer el blog de investigación aquí.

El jefe de Google en el Reino Unido dice que no se puede confiar en su chatbot Bard para obtener información precisa - Prarthana Prakash

La IA generativa revolucionará la fuerza laboral, dice McKinsey, forzando 12 millones de cambios de trabajo y automatizando el 30% de las horas trabajadas en la economía de EE. UU. para 2030 - Paolo Confino

Amy Hood, directora financiera de Microsoft, presenta una hoja de ruta de inversión en IA - Sheryl Estrada

Netflix quiere contratar un 'gerente de producto' de IA con un salario de 900.000 dólares mientras el streaming y la IA devastan Hollywood - Chloe Berger

Microsoft, Google y OpenAI acaban de convertirse en miembros fundadores de lo que podría ser el primer verdadero lobby de IA. A continuación: Los legisladores escriben las reglas - Paolo Confino

La IA y los extraterrestres.Fuera de AI, la noticia que capturó a las masas la semana pasada fue la explosiva audiencia del Comité de Supervisión de la Cámara de Representantes sobre los UAP (es decir, fenómenos anómalos no identificados, el nuevo término para los OVNIs), donde testigos testificaron que el gobierno de EE. UU. tiene aviones UAP y productos biológicos en su poder. , ha estado encubriendo un programa de recuperación de accidentes que lleva décadas de duración y está asignando mal fondos para pagarlo, entre otras acusaciones.

Lo que no surgió en la audiencia, que se centró principalmente en las implicaciones para la seguridad nacional, es la ambición generalizada en torno al uso de IA para el seguimiento y la investigación de UAP.

El aprendizaje automático en particular es útil para procesar y dar sentido a grandes cantidades de datos. De hecho, cuando el comité preguntó qué debe suceder con respecto a los UAP, los tres testigos, todos ex funcionarios militares o de inteligencia de EE. UU., testificaron que un sistema centralizado para rastrear y analizar los datos de los UAP debería ser la máxima prioridad.

Hypergiant, una empresa de aprendizaje automático con sede en Texas y contratista gubernamental que desarrolla infraestructura crítica para la defensa y el espacio, es una empresa que recurre a la IA en busca de UAP. La empresa creó su software CONTACT, o herramienta de captura activa no terrestre organizada contextualmente, para categorizar y analizar avistamientos no identificados capturados por satélites.

En otro ejemplo, un equipo de desarrolladores de código abierto decidió tomar el asunto en sus propias manos y recientemente lanzó un proyecto llamado Sky 360, estableciendo 20 estaciones de monitoreo (y contando) y usando IA para detectar y analizar posibles avistamientos de UAP. El sistema funciona con la plataforma de aprendizaje automático TensorFlow y utiliza visión por computadora para detectar movimiento en un cuadro en comparación con cuadros anteriores.

Ravi Starzl, profesor de ciencias informáticas en Carnegie Mellon que se enfoca en inteligencia artificial y análisis computacional, dijo que ha estado ayudando personalmente a múltiples organizaciones a desarrollar sistemas de aprendizaje automático para identificar y caracterizar UAP, incluidos los análisis de datos visuales, de radar, de audio y de texto.

La NASA también ha sugerido el uso de IA para examinar los datos de UAP y, de hecho, la agencia ya ha tenido éxito al utilizar la IA para identificar nuevos exoplanetas y explorar partes de Marte que de otro modo habrían sido inalcanzables, entre otros casos de uso. No está claro si la NASA ya ha recurrido a la IA para sus esfuerzos en UAP, pero la agencia podría arrojar luz sobre esta cuestión en su tan esperado informe UAP que se espera que se publique este mes.

Esta es la versión en línea de Eye on AI, un boletín gratuito que se envía a las bandejas de entrada los martes. Registrate aquí.

Sabio LázaroLa IA y los extraterrestres.