Un estudio reciente del Instituto Tecnológico de Massachusetts (MIT), titulado “El dilema social de los vehículos autónomos” y publicado por Science, realizó una encuesta en la que le preguntó a los conductores qué actitud debe tomar un vehículo autónomo ante un posible accidente en el que tenga que elegir entre una maniobra que ponga en peligro al pasajero, u otra que lo haga con un transeúnte, tal como señala una nota del diario La Nación.
[box type=»note»]El 76% de los encuestados consideró que es más «moral» para un vehículo autónomo decidir «sacrificar» a un pasajero antes que atropellar a diez peatones.Uno de cada tres respondió que se subiría un vehículo autónomo cuyo algoritmo estuviese programado para arriesgar la vida de los pasajeros a cambio de salvar a diez peatones. El informe se basó en un conjunto de seis encuestas realizadas entre junio y noviembre del 2015.[/box]
Por otro lado, la mayoría se opuso a que el gobierno regule estos automóviles robóticos, para que tengan una moral «utilitaria», en la que se ponga en la balanza el número de vidas a salvar y el número que se arriesga a morir.
Por parte de los científicos no creen que los vehículos sin conductor sean más seguros que los autos tradicionales. Este tipo de moralidad «utilitaria» podría poner en riesgo más vidas que las que salva.