Ciencia

El coronel habló sobre el uso de la IA en las tropas rusas

15:00 02.06.2023 Ciencia

La inteligencia artificial (IA) ya se está utilizando en los sistemas de armas rusos, como los sistemas de defensa aérea (AD). AI tiene tiempo para responder a una amenaza más rápido que una persona y realizar los cálculos necesarios. Esto fue declarado en una conversación con Lenta.ru por un experto militar, el coronel retirado Viktor Litovkin.

“Los sistemas de defensa aérea funcionan con inteligencia artificial. Una persona no tiene tiempo para realizar todas las acciones necesarias, apuntar un cohete, realizar cálculos, pero la IA sí. Pero, por supuesto, este sistema no puede funcionar completamente sin una persona, todavía tiene que controlar el proceso ”, especificó Litovkin.

Agregó que la IA también se está utilizando en fuerzas de misiles e incluso en unidades de rifles motorizados. Por ejemplo, los vehículos de combate de infantería pueden ser controlados por una persona ubicada a una distancia relativamente segura de un punto caliente. Observa el campo de batalla, establece la tarea para la máquina.

“Nuestros misiles Iskander-M tienen una ojiva en la que se muestra la imagen del objetivo. Por ejemplo, se establece la siguiente tarea: volar a la posición del enemigo y golpear la sede. En este caso, incluso si hay diferentes objetos, tanques, lanzadores cerca, el misil no los alcanzará, porque se le dio una imagen diferente del objetivo ”, explicó el interlocutor de Lenta.ru.

Litovkin también habló sobre el sistema de misiles Granit. Cuando los misiles despegan, permanecen en el aire por un tiempo, esperándose unos a otros, y luego distribuyen los objetivos entre ellos.

Por ejemplo, dos misiles golpean un portaaviones, dos golpean un crucero, y así sucesivamente. Estos principios de la IA existen desde hace mucho tiempo, simplemente no hablan de ello.

Viktor Litovkinexperto militar

Anteriormente se informó que el dron de la Fuerza Aérea de EE. UU. (Air Force), controlado por inteligencia artificial (IA), decidió atacar al operador, porque, según el dron, le impedía completar la tarea principal con comandos adicionales. .

En mayo, el profesor emérito de UC Berkeley, Stuart Russell, opinó que las máquinas superinteligentes del futuro resistirían los intentos de controlarlas y se volverían peligrosas.

más reciente de "Ciencia"