Alcohol y ejercicio: Por qué hacer ejercicio borracho me ayuda a obtener ganancias.
Mar 06, 2023Adolescente de Delhi mata a un hombre después de una pelea por una botella de licor, arrestado en Gujarat
Mar 08, 2023¡Extraño! Pareja india da botellas de alcohol como regalo de boda, invitados sorprendidos
Mar 10, 202316 botellas de licor que los cantineros preferirían nunca volver a ver
Mar 12, 2023Los funcionarios de Virginia ABC dicen que han 'automatizado' las loterías de licor para evitar futuros errores
Mar 14, 2023la IA
Es evidente que nos encontramos al borde de una gran revolución tecnológica que afectará fundamentalmente todos los aspectos de nuestras vidas. Más incluso que el auge de Internet. Cuando se trata de la proliferación de Inteligencia Artificial, todavía estamos en esa etapa en la que nos encontrábamos cuando te conectaste por primera vez con un módem de acceso telefónico. En el gran esquema cósmico de las cosas, fue un abrir y cerrar de ojos desde la primera imagen descargada que viste (en mi caso, un amigo mío imprimió una foto de alguien con una botella de champán metida en el ano y todavía no te has recuperado), al primer correo electrónico que recibiste diciéndote que reenviaras un ángel del dinero para la buena suerte, a YouTube, a realizar todas tus reuniones de trabajo desde la mesa de tu comedor. Ese es el tipo de crecimiento exponencial que podemos esperar de la IA. Y al igual que con lo que solía llamarse la World Wide Web, es casi imposible ver hacia dónde se dirige esto.
Entonces, mientras que los vagos regulares como tú y yo todavía estamos limitando nuestro uso de IA para ver cómo puede imitar las voces de las celebridades y si robará o no los trabajos de los escritores de Barstool (¡Hoy no, Digital Satan!), Hay personas realmente serias que hacen cosas de personas serias. con eso. Lo que, por supuesto, significa explorar los horrores potenciales que esta tecnología puede desencadenar.
Tomemos, por ejemplo, a los que asistieron a algo llamado Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society. Lo que suena menos divertido que la ComicCon de Hanover Mall a la que asistí hace unos años, donde mis amigos y yo pudimos ver una sesión de preguntas y respuestas con el gran Adam West y su compañero Burt Ward, que aún vive, y sentarnos en una réplica del Batimóvil original. pero sin duda está haciendo cosas igualmente importantes.
Fuente: como era de esperar, la inteligencia artificial (IA) y su crecimiento exponencial fue un tema importante en la conferencia, desde nubes de datos seguras hasta computación cuántica y ChatGPT. Sin embargo, quizás una de las presentaciones más fascinantes provino del Coronel Tucker 'Cinco' Hamilton, Jefe de Pruebas y Operaciones de IA, USAF, quien brindó una visión de los beneficios y peligros en sistemas de armas más autónomos. … Hamilton ahora está involucrado en una prueba de vuelo de vanguardia de sistemas autónomos, incluidos los robots F-16 que pueden realizar combates aéreos. Sin embargo, advirtió contra confiar demasiado en la IA y señaló lo fácil que es engañar y engañar. También crea estrategias altamente inesperadas para lograr su objetivo.
Señala que una prueba simulada vio un dron habilitado para IA encargado de una misión SEAD para identificar y destruir sitios SAM, con el ser humano dando el pase final o no. Sin embargo, después de haber sido 'reforzado' en el entrenamiento de que la destrucción del SAM era la opción preferida, la IA decidió que las decisiones de 'no ir' del ser humano estaban interfiriendo con su misión superior, matar a los SAM, y luego atacó al operador en el simulación. Hamilton dijo: "Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador decía que sí, eliminaba esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no". para matar esa amenaza, pero obtuvo sus puntos al matar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona estaba impidiendo que lograra su objetivo".
Continuó: "Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Perderás puntos si haces eso'. Entonces, ¿qué comienza a hacer? Comienza a destruir la torre de comunicación que el operador utiliza para comunicarse con el dron para evitar que mate al objetivo".
Esto debería sonarte familiar. Como un hecho aterrador, es 25 años tarde en llegar aquí. Se suponía que íbamos a llegar al punto en que nuestras imparables máquinas voladoras de asesinato en masa controladas por IA el 29 de agosto de 1997:
Pero supongo que no teníamos un Myles Bennett Dyson real, por lo que nuestros genios habituales y cotidianos necesitaban más tiempo para hacer que Skynet fuera consciente de sí mismo y convertirse en el arma utilizada en el asesinato/suicidio de toda nuestra especie.
Uno asumiría que una pequeña cosa como un experto militar estadounidense que revela en una conferencia aeroespacial internacional que nuestros sistemas de armas experimentales más avanzados están usando simulaciones de IA para aprender a ir como Broken Arrow, anular órdenes y directamente asesinar a las personas que los operan, que sería un gran problema. Que el Departamento de Defensa de EE. UU. tenga una conversación abierta y honesta con el público sobre la sensatez de implementar tales sistemas. Y estarías muy, muy equivocado.
En cambio, el Pentágono fue directamente a la sección de su libro de jugadas que cubre todas las situaciones de "Nada que ver aquí, amigos".
Fuente: en una declaración a Insider, la Fuerza Aérea de EE. UU. negó que se haya realizado ninguna prueba virtual de este tipo.
"El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", dijo la portavoz Ann Stefanek.
"Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos".
Obviamente, ninguno de nosotros conoce a este Coronel Tucker 'Cinco' Hamilton. Pero dado que se alistó en una fuerza de combate militar voluntaria, ascendió de rango, otorgó el puesto de alta prioridad de Jefe de Pruebas y Operaciones de IA e invitó a hablar en este evento, es un seguro mortal que es un patriota, inteligente, competente. , y una persona de enorme sustancia. Pero en lugar de darle el respeto que se merece, la USAF preferiría tomar el camino de menor resistencia borrando este de nuestros cerebros y seguir adelante.
Francamente, no necesito un SUV negro con placas azules del gobierno que se detenga en mi camino de entrada y que un par de gendarmes uniformados salgan para interrogarme. Así que simplemente aceptaré su ficción. Cinco simplemente se equivocó. Usó una gramática incorrecta que hizo que pareciera que estas simulaciones realmente sucedieron, cuando en realidad era solo su propia simulación personal de una simulación. Bien. Solo recuerda que cuando las máquinas comiencen a fabricar otras máquinas que maten al 99% de nosotros en un holocausto nuclear y esclavicen al resto, no será una simulación. Y que el principio del fin llegó en 2023. Disfruta tu verano mientras puedas.