Tabla de contenido

Enlaces rápidos

AWS DeepLens
Guía para desarrolladores
Tabla de contenido
loading

Resumen de contenidos para AWS DeepLens

  • Página 1 AWS DeepLens Guía para desarrolladores...
  • Página 2: Aws Deeplens: Guía Para Desarrolladores

    AWS DeepLens Guía para desarrolladores AWS DeepLens: Guía para desarrolladores Copyright © Amazon Web Services, Inc. and/or its affiliates. All rights reserved. Las marcas comerciales y la imagen comercial de Amazon no se pueden utilizar en relación con ningún producto o servicio que no sea de Amazon de ninguna manera que pueda causar confusión entre los clientes y que menosprecie...
  • Página 3: Tabla De Contenido

    Ver secuencias de vídeo desdeAWS DeepLensDispositivo de edición 2019 en el navegador ..55 Ver la transmisión de vídeo desde el dispositivo AWS DeepLens en el navegador....... 56 Ver transmisiones de vídeo en su dispositivo AWS DeepLens ..........58 Creación de una función Lambda para ver el flujo del proyecto ..........
  • Página 4 Audience ........................164 Autenticación con identidades ................... 164 Administración de acceso mediante políticas ............... 166 Funcionamiento de AWS DeepLens con IAM ..............168 Ejemplos de políticas basadas en identidad ................ 170 Solución de problemas ..................... 176 Administración de actualizaciones ....................177 Cumplimiento de normas de seguridad ..................
  • Página 5: Qué Es Aws Deeplens

    • Utilice el servicio de AWS DeepLens para crear un proyecto de aplicación de visión artificial que conste de un modelo y una función de inferencia.
  • Página 6: El Dispositivo Aws Deeplens

    • Un puerto micro HDMI • Puertos USB y de salida de audio • Consumo de energía: 20 W • Entrada de alimentación: 5 V y 4 Amp En la siguiente imagen se muestra la parte delantera y posterior del hardware de AWS DeepLens.
  • Página 7: Hardware

    AWS DeepLens Guía para desarrolladores Hardware En la siguiente imagen se muestra la parte delantera y posterior delAWS DeepLensedición 2019...
  • Página 8 • AWS DeepLens: Dos ranuras USB 2.0 para conectar al dispositivo un teclado y un ratón USB o cualquier otro accesorio compatible con USB. • AWS DeepLens edición 2019 : Dos ranuras USB 3.0, una solo para registro y otra para conectar al dispositivo un ratón y un teclado USB o cualquier otro accesorio compatible con USB.
  • Página 9 AWS DeepLens Guía para desarrolladores Hardware...
  • Página 10: Software

    Software AWS DeepLens El dispositivo AWS DeepLens utiliza las versiones actuales de software para los siguientes marcos: • Ambas versiones del hardware, 1.0 y 1.1, del dispositivo AWS DeepLens admiten Python 2.7 y Python 3.7. • Las arquitecturas de IA de aprendizaje profundo admitidas son MXNet 1.6.0 y TensorFlow 1.4.
  • Página 11: Funcionamiento De Aws Deeplens

    AWS DeepLens. Flujo de trabajo de proyectos de AWS DeepLens En el siguiente diagrama se ilustra el flujo de trabajo básico en un proyecto de AWS DeepLens implementado. 1. Cuando está encendido, el AWS DeepLens captura una transmisión de vídeo.
  • Página 12: Marcos De Modelado

    Con AWS DeepLens, puede entrenar un modelo de proyecto mediante un marco de modelado de aprendizaje profundo compatible. Puede entrenar el modelo en la nube de AWS o en otro entorno. En la actualidad, AWS DeepLens es compatible con los marcos Caffe, TensorFlow y Apache MXNet, además de con modelos Gluon.
  • Página 13: Introducción

    Después de crear su cuenta de AWS, inicie sesión en la consola de AWS DeepLens con sus credenciales de usuario o cuenta de AWS. En los temas de esta sección se presupone que ha iniciado sesión en la consola de AWS DeepComposer.
  • Página 14: Register Aws Deeplensdispositivo Edición 2019 (V1.1)

    2. Verifique el número de serie del dispositivo. 3. Configure la conexión a Internet del dispositivo. 4. Cree una representación del dispositivo en la nube de AWS. 5. Actualice la configuración del dispositivo. Siga las secciones siguientes para obtener instrucciones detalladas para cada una de las tareas.
  • Página 15: Connect Suaws Deeplensdispositivo Edición 2019

    AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) • Connect suAWS DeepLensDispositivo edición 2019 (p. 15) • Nombre de suAWS DeepLensEdición 2019 y completar el registro (p. 17) • Ver o actualizar suAWS DeepLensConfiguración del dispositivo 2019 (p. 20) Connect suAWS DeepLensDispositivo edición 2019...
  • Página 16 AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) En la página Connect your device to your computer (Conectar el dispositivo al equipo), siga las instrucciones para activar su dispositivo y, a continuación, conecte este a su equipo conectando un extremo del cable USB a USB a un puerto USB en su equipo y el otro extremo en el puerto USB REGISTRATION (REGISTRO) en la parte posterior del dispositivo.
  • Página 17 AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) Espere a que la conexión se complete cuando el estado Device USB connection (Conexión USB de dispositivo) pase a Connected (Conectado) y, a continuación, elija Next (Siguiente).
  • Página 18: Validar Suaws Deeplensedición 2019

    AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) Connect toSus AWS DeepLensDispositivo edición 2019aMonitorización, ratón,y Teclado Como alternativa al uso de un ordenador para conectarse a suAWS DeepLensEdición 2019, también puede conectarse al dispositivo directamente mediante un monitor con unμCable HDMI a HDMI, teclado USB,y un ratón USB.
  • Página 19 AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) Para validar elAWS DeepLensDispositivo edición 2019 Anote los cuatro últimos dígitos del número de serie del dispositivo. Están impresos en la parte inferior del dispositivo. En la página Validate your device (Validar el dispositivo), escriba los últimos cuatro dígitos del número de serie del dispositivo.
  • Página 20 AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) Espere a que el dispositivo se conecte a Internet, cuando Status (Estado) en Wi-Fi network details (Detalles de la red Wifi) pasa a ser Online. Elija Install software update (Instalar actualización de...
  • Página 21: Nombre De Suaws Deeplensedición 2019 Y Completar El Registro

    Después de que susAWS DeepLens2019 Edition está conectado a Internet y el software esté actualizado, asigne un nombre al dispositivo para referencia futura y acepte los permisos de acceso de AWS que se conceden en su nombre para completar el registro.
  • Página 22 El registro del dispositivo ya está en curso. El proceso asíncrono conlleva las siguientes tareas: • El dispositivo se comunica con el servicio AWS DeepLens en la nube a través de la red wifi especificada. • El servicio AWS DeepLens tiene roles de IAM necesarios con los permisos de AWS obligatorios creados automáticamente.
  • Página 23 AWS DeepLens Guía para desarrolladores RegistrarAWS DeepLensDispositivo edición 2019 (v1.1) Como opción, anote el identificador del tema de MQTT (por ejemplo, $aws/things/ deeplens_cTsBnnQxT0mMx45HGLJ4DA/infer) que se muestra en Project Output (Resultado del proyecto). Necesitará este identificador para ver un resultado de proyecto implementado en elAWS...
  • Página 24: Ver O Actualizar Suaws Deeplensconfiguración Del Dispositivo 2019

    Puede ver o actualizar la configuración del dispositivo una vez que el dispositivo se registre correctamente. Para ver o actualizar elAWS DeepLensConfiguración del dispositivo 2019 En la página de detalles del dispositivo registrada correctamente en la consola de AWS DeepLens, seleccione Edit device settings (Editar configuración del dispositivo).
  • Página 25: Registrar El Dispositivo Aws Deeplens (V1)

    (también conocido como v1). Puede encontrar la versión de hardware en la parte inferior de su dispositivo AWS DeepLens. Si no ve HW v1.1 impreso, el dispositivo es de la edición AWS DeepLens original. A continuación, puede continuarLos procedimientos que se describen en esta sección. De lo contrario, consulte the section called “RegistrarAWS DeepLensDispositivo edición 2019 (v1.1)”...
  • Página 26: Configurar La Cuenta De Aws Para Un Dispositivo Aws Deeplens

    Configurar la cuenta de AWS para un dispositivo AWS DeepLens La configuración de la cuenta de AWS para el dispositivo AWS DeepLens implica asignar un nombre al dispositivo, conceder permisos de acceso a AWS y descargar un certificado para que AWS autentique el dispositivo.
  • Página 27: Important

    AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1) En la sección Certificate (Certificado), seleccione Download certificate (Descargar certificado) para guardar el certificado del dispositivo. Important El certificado de dispositivo descargado es un archivo .zip. No lo descomprima.
  • Página 28 AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1) Note En dispositivos de determinadas versiones anteriores, la aplicación de configuración del dispositivo heredada supone que el nombre de su red doméstica o de oficina (SSID) y la contraseña no contienen caracteres especiales, incluidos espacios, barras inclinadas (\), comillas simples ('), comillas dobles (") o punto y coma (;).
  • Página 29: Conectarse A La Red Wifi De Su Dispositivo Aws Deeplens

    Registrar el dispositivo AWS DeepLens (v1) Conectarse a la red wifi de su dispositivo AWS DeepLens Para configurar su dispositivo AWS DeepLens, primero debe conectar su equipo a la red wifi local del dispositivo, también denominada red del dispositivo. Cuando el indicador de Wifi (la luz LED AMDC-NNNN del medio) parpadee en la parte frontal del dispositivo, indicará...
  • Página 30 AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1) Espere hasta que el dispositivo haya entrado en modo de configuración, cuando el indicador de wifi (LED central) en la parte delantera del dispositivo comience a parpadear. Note Si el indicador de wifi no parpadea, el dispositivo ya no está en el modo de configuración.
  • Página 31 Para lanzar la aplicación de configuración del dispositivo, siga uno de estos métodos: • Para el registro inicial mediante la consola de AWS DeepLens, vuelva a la página Connect to your device(Conectar a su dispositivo) y haga clic en Next (Siguiente).
  • Página 32 AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1)
  • Página 33: Configure El Dispositivo Aws Deeplens

    Note Si la URL anterior no funciona, puede que el dispositivo AWS DeepLens tenga la versión del software awscam 1.3.5 o anterior instalada. En este caso, actualice el software del dispositivo e inténtelo de nuevo.
  • Página 34 AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1) UNDERPaso 1: Connect a la redElija el SSID de su red wifi doméstica o de oficina en elID de red wifi. Escriba la contraseña de la red wifi De forma alternativa, puede elegir Use Ethernet (Utilizar Ethernet) para conectar su dispositivo AWS DeepLens a Internet.
  • Página 35 Paso 2. Cuando su dispositivo tiene un software actualizado instalado, al iniciar la aplicación de configuración del dispositivo (p. ej., http://deeplens.config), se abre una página del navegador similar a la siguiente:...
  • Página 36 AWS DeepLens Guía para desarrolladores Registrar el dispositivo AWS DeepLens (v1)
  • Página 37 En Upload security certificate to associate your AWS DeepLens to your AWS account (Actualizar el certificado de seguridad para asociar su AWS DeepLens a su cuenta de AWS) en la página actualizada Configure your AWS DeepLens (Configurar su AWS DeepLens), haga lo siguiente: Seleccione Browse (Explorar) para abrir un selector de archivos.
  • Página 38: Creación E Implementación De Un Proyecto De Muestra En La Consola (~10 Minutos)

    Crear e implementar un modelo de muestra (~10 minutos) En este tutorial, usará la consola de AWS DeepLens para crear un proyecto de AWS DeepLens a partir de la plantilla de proyecto de muestra de detección de objetos (p. 63) para crear un proyecto de AWS DeepLens.
  • Página 39: Creación E Implementación De Su Proyecto

    Siga los pasos de este procedimiento para crear e implementar el proyecto de muestra de detección de objetos. Para crear e implementar un proyecto de muestra de AWS DeepLens a través de la consola de AWS DeepLens Abra el iconoAWS DeepLensEn la consola dehttps://console.aws.amazon.com/deeplens/.
  • Página 40: Important

    En la páginaDispositivo de destino page, en la lista deAWS DeepLens, elija la opciónen el que desea implementar este proyecto. Un dispositivo AWS DeepLens solo puede tener un proyecto implementado a la vez.
  • Página 41: Configurar El Almacén De Datos Del Proyecto En Amazon S3

    Crear una función Lambda e implementar un modelo entrenado personalizado en AWS DeepLens (p. 43) • Uso de la consola de AWS IoT Greengrass para ver la salida de su modelo personalizado con formación (salida de texto) (p. 47) Configurar el almacén de datos del proyecto en Amazon Simple Storage Service (S3).
  • Página 42: Entrenar Un Modelo En Amazon Sagemaker

    Pasos siguientes • En este punto del tutorial, debería haber completado correctamente lo siguiente: • Registro del dispositivo AWS DeepLens • Creado unAmazon S3bucket • A continuación, deberá solicitar un aumento del límite de servicio e iniciar una instancia de bloc de notas de SageMaker Jupyter para entrenar su modelo.
  • Página 43: Solicitar Una Instancia De Entrenamiento De Amazon Sagemaker Habilitada Para Gpu

    En Contact options (Opciones de contacto), proporcione algunos detalles acerca de cómo desea que el equipo de soporte de servicios de AWS se ponga en contacto con usted sobre el estado de su solicitud de aumento de límite de servicio .
  • Página 44 IAM), y, a continuación, elija su rol de IAM de la lista. Abra el iconoRepositorios de Gity, a continuación, bajo el panelRepositorio predeterminado, elijaclonar un repositorio público de gitHub. Copie https://github.com/aws-samples/aws-deeplens-recipes/ y péguelo en el campo. Contiene el bloc de notas de Jupyter necesario para este proyecto personalizado.
  • Página 45 10. En la página Notebook instances (Instancias del bloc de notas), elija Open Jupyter (Abrir Jupyter) para iniciar el nuevo bloc de notas de Jupyter que acaba de crear. 11. Vaya a la .static/code/trash-sorter/y abra el directorioaws-deeplens-custom-trash- detector.ipynb.
  • Página 46 AWS DeepLens Guía para desarrolladores Entrenar un modelo en Amazon SageMaker. 12. Siga las instrucciones del cuaderno de Jupyter para entrenar a su modelo. Note El cuaderno Jupyter contiene una mezcla de código y celdas de reducción. En un cuaderno, cada celda se puede ejecutar y modificar.
  • Página 47: Crear Una Función Lambda E Implementar Un Modelo Entrenado Personalizado En Aws Deeplens

    AWS LambdaFunción inferencia de inferenciaPara su proyecto personalizado de AWS DeepLens. La función Lambda le ayuda a realizar una inferencia de fotogramas de una secuencia de vídeo capturada por suAWS DeepLensDispositivos de. Si una función Lambda existente y publicada cumple con los requisitos de su aplicación, puede usarla en su lugar.
  • Página 48 Elija Import model (Importar modelo). Crear una función de AWS Lambda. Una función de Lambda permite a AWS DeepLens procesar el vídeo que se está capturando en suAWS DeepLensDispositivos de. En este procedimiento, utiliza la consola de Lambda para crear la función Lambda y, a continuación, cargar el archivodeeplens-lambda.zipfile.
  • Página 49: Crea Un Nuevo Proyecto De Aws Deeplens

    Seleccione Save (Guardar) para guardar el código introducido. 10. En la parte superior de la página, elija Actions (Acciones), y, a continuación, elija Publish new version (Publicar nueva versión). Ahora su función estará disponible en la consola de AWS DeepLens y podrá agregarla a su proyecto personalizado.
  • Página 50: Implementar El Proyecto Personalizado De Aws Deeplens

    • Se ha creado una función de AWS Lambda • Implementación de su función de AWS Lambda y su modelo en su dispositivo AWS DeepLens Ahora que ha implementado el modelo personalizado y la función AWS Lambda en AWS DeepLens, los usuarios pueden ver el resultado.
  • Página 51: Ver Resultados En Aws Iot Greengrass

    (salida de texto) En este paso, se sincroniza la entrada de vídeo de AWS DeepLens con AWS IoT Greengrass. En el panel de navegación de la consola de AWS DeepLens, elija Devices (Dispositivos).
  • Página 52: Compilación De Proyectos

    Cuando el dispositivo AWS DeepLens está registrado con y conectado a la nube de AWS, puede empezar a crear un proyecto de AWS DeepLens en la nube de AWS e implementarlo en el dispositivo. Un proyecto de AWS DeepLens es una aplicación de visión artificial basada en el aprendizaje profundo. Consta de un modelo de aprendizaje profundo y una función Lambda para realizar una inferencia basada en el modelo.
  • Página 53: Modelos Mxnet Compatibles Expuestos Por La Api Gluon

    Compatibilidad con capas MXNet (p. 49) Topics Modelos MXNet compatibles expuestos por la API Gluon AWS DeepLens es compatible con los siguientes modelos de aprendizaje profundo Apache MXNet del Gluon Model Zoo expuestos por la API Gluon. Modelos de Gluon compatibles AlexNet Modelo de clasificación de imágenes entrenado en el conjunto de...
  • Página 54: Compatibilidad Con Modelos Y Capas Tensorflow

    Realiza una suma algebraica de las matrices de entrada con radiodifusión Para obtener más información acerca de las capas MXNet, consulte MXNet Gluon Neural Network Layers. Compatibilidad con modelos y capas TensorFlow AWS DeepLens es compatible con los siguientes modelos y capas TensorFlow para el aprendizaje profundo.
  • Página 55: Compatibilidad Con Capas Tensorflow

    Modelos TensorFlow compatibles (p. 51) • Compatibilidad con capas TensorFlow (p. 51) Modelos TensorFlow compatibles AWS DeepLens es compatible con los siguientes modelos de aprendizaje profundo que han sido entrenados con TensorFlow. Modelos TensorFlow compatibles Inception Modelo de clasificación de imágenes entrenado en el conjunto de...
  • Página 56: Compatibilidad De Modelos Y Capas Caffe

    Para obtener más información acerca de las capas TensorFlow, consulte Capas TensorFlow. Compatibilidad de modelos y capas Caffe AWS DeepLens es compatible con los siguientes modelos de aprendizaje profundo entrenados con Caffe y las capas de modelado de Caffe. Temas •...
  • Página 57: Compatibilidad De Las Capas Caffe

    AWS DeepLens Guía para desarrolladores Modelos y capas Caffe Modelos Caffe compatibles AlexNet Modelo de clasificación de imágenes entrenado en el conjunto de datos ImageNet utilizando Caffe DenseNet Modelo de clasificación de imágenes a partir del modelo Torch original Inception Modelo de clasificación de imágenes convertido del modelo Apache...
  • Página 58 AWS DeepLens Guía para desarrolladores Modelos y capas Caffe Capas Caffe compatibles Energía Calcula la salida como (shift + scale * x) ^ power para cada elemento xde entrada ReLU Calcula las activaciones lineales rectificadas Reshape Cambia las dimensiones del blob de entrada sin cambiar sus datos ROIPooling Aplica agrupación para cada región de interés...
  • Página 59: Visualización De Resultados De Proyectos

    Realice una de las siguientes acciones para iniciar el visor de AWS DeepLens Stream de sus dispositivos: • Abra la página de detalles del dispositivo en la consola de AWS DeepLens y elija View video stream (Ver transmisión de vídeo) en Video streaming (Transmisión de vídeo) para abrir el visor de secuencias en una nueva pestaña del navegador.
  • Página 60: Ver La Transmisión De Vídeo Desde El Dispositivo Aws Deeplens En El Navegador

    Los pasos son diferentes dependiendo de si se utiliza la aplicación de configuración del dispositivo o no. Descargar el certificado de streaming sin usar la página de configuración del dispositivo: Establezca una conexión SSH a su dispositivo AWS DeepLens desde su equipo: aws_cam@device_local_ip_address Un ejemplo de sería 192.168.0.47.
  • Página 61 AWS DeepLens es la 1.3.23 o superior, escriba DeepLens en el campo de entrada de la contraseña. Si su versión del software AWS DeepLens es la 1.3.22 o una anterior, deje el campo de contraseña en blanco y siga las instrucciones que aparecen en pantalla para completar la importación del certificado de streaming.
  • Página 62: Ver Transmisiones De Vídeo En Su Dispositivo Aws Deeplens

    Escriba la contraseña de sistema de su equipo. iii. En la siguiente pantalla, si su versión del software de AWS DeepLens es la 1.3.23 o superior, escriba DeepLens en el campo de entrada de contraseñas. Si su versión del software de AWS DeepLens es la 1.3.22 o anterior, deje en blanco el campo Password (Contraseña) y, a...
  • Página 63: Ver Transmisiones En Directo En Su Dispositivo Aws Deeplens

    Enchufe el dispositivo AWS DeepLens en una toma de alimentación y enciéndalo. Conecte un ratón USB y el teclado a su AWS DeepLens. Utilice el micro cable HDMI para conectar su AWS DeepLens a un monitor. Aparece una pantalla de inicio de sesión en el monitor.
  • Página 64: Creación De Una Función Lambda Para Ver El Flujo Del Proyecto

    Creación de una función Lambda para ver el flujo del proyecto Para ver la transmisión del proyecto, necesita una función de AWS Lambda que interactúe con la transmisión mjpeg en su dispositivo y el modelo de aprendizaje profundo. Para los proyectos de muestra incluidos conAWS DeepLensEl código se incluye en la función Lambda de inferencia para el proyecto.
  • Página 65 = FIFO_Thread() results_thread.start() # Send a starting message to the AWS IoT console. client.publish(topic=iotTopic, payload="Object detection starts now") # Load the model to the GPU (use {"GPU": 0} for CPU). mcfg = {"GPU": 1} model = awscam.Model(modelPath, mcfg)
  • Página 66 Una vez que haya creado e implementado la función Lambda, siga las instrucciones que se describen the section called “Ver la transmisión de vídeo desde el dispositivo AWS DeepLens en el navegador.” (p. 56) Ver transmisiones de proyectos en su dispositivo AWS DeepLens (p. 59) para ver la transmisión del proyecto procesada.
  • Página 67: Trabajo Con Proyectos De Muestra De

    (CNN) puede aplicar el estilo de una pintura a su entorno a medida que se transmite con su dispositivo AWS DeepLens. El proyecto utiliza un modelo entrenado previamente y optimizado que ya está listo para implementarse en su dispositivo AWS DeepLens.
  • Página 68: Detección Y Reconocimiento De Rostros

    Pascal VOC y es capaz de reconocer 20 tipos diferentes de objetos. El modelo toma la transmisión de vídeo de su dispositivo AWS DeepLens como entrada y etiqueta los objetos que identifica. El proyecto utiliza un modelo entrenado previamente y optimizado que ya está listo para implementarse en su dispositivo AWS DeepLens. Después de la implementación, podrá...
  • Página 69: Reconocimiento De Actividad

    30 actividades diferentes. El modelo toma la transmisión de vídeo de su dispositivo AWS DeepLens como entrada y etiqueta las actividades que identifica. El proyecto utiliza un modelo entrenado previamente y optimizado que ya está listo para implementarse en su dispositivo AWS DeepLens.
  • Página 70: Creación E Implementación De Un Proyecto De Muestra De Aws Deeplens En La Consola De Aws Deeplens

    Creación e implementación de un proyecto de muestra de AWS DeepLens en la consola de AWS DeepLens En este tutorial, usará la consola de AWS DeepLens para crear un proyecto de AWS DeepLens a partir de la plantilla de proyecto de muestra de detección de objetos (p. 63) para crear un proyecto de AWS DeepLens.
  • Página 71: Important

    AWS DeepLens Guía para desarrolladores Retransmisión de los resultados de un proyecto a través de SMS Para crear e implementar un proyecto de muestra de AWS DeepLens a través de la consola de AWS DeepLens Abra el iconoAWS DeepLensconsola de enhttps://console.aws.amazon.com/deeplens/.
  • Página 72: Crear Y Configurar La Función De Lambda

    Crear y configurar la función de Lambda Cree y configure una función AWS Lambda que se ejecuta en la nube y filtra los mensajes desde su dispositivo AWS DeepLens para detectar los que tienen una probabilidad lo bastante alta (>0,5) de ser un perrito caliente.
  • Página 73 AWS DeepLens Guía para desarrolladores Retransmisión de los resultados de un proyecto a través de SMS...
  • Página 74 También puede incluir una descripción de la regla en Rule description (Descripción de la regla). En Rule query statement (Declaración de consulta de regla), escriba en la casilla una declaración de consulta del tema AWS IoT con el siguiente formato, sustituyendo el texto en rojo con el tema AWS IoT de su AWS DeepLens.
  • Página 75 SNS = new AWS.SNS({ apiVersion: '2010-03-31' }); exports.handler = (event, context, callback) => { console.log('Received event:', event); // publish message const params = { Message: 'Your AWS DeepLens device just identified a hot dog. Congratulations!', PhoneNumber: phone_number if (event.Hotdog > 0.5) { SNS.publish(params, callback);...
  • Página 76: Deshabilite La Regla De Aws Iot

    AWS DeepLens en la consola de AWS DeepLens (p. 66). Muestre a su AWS DeepLens un perrito caliente para ver si lo detecta y le envía el mensaje de confirmación. Para experimentar, cambie el umbral de probabilidades para desencadenar la función Lambda y ver qué...
  • Página 77: Uso De Sagemaker Para Aprovisionar Un Modelo De Capacitación Previa Para Un Proyecto De Muestra

    Incluye el código de edición para ejecutar y explicaciones para todo el proceso. Una vez que se ha entrenado el modelo, importa sus artefactos a AWS DeepLens y crea un proyecto. A continuación, ve cómo AWS DeepLens detecta e identifica perritos calientes.
  • Página 78: Paso 1: Crear Un Bucket De Amazon S3

    Paso 1: Crear un bucket de Amazon S3 Antes de empezar, asegúrese de haber creado una cuenta de AWS y los usuarios y roles de IAM necesarios. Inicie sesión en elAWS Management ConsoleAbra y abra la consola de Amazon S3 enhttps:// console.aws.amazon.com/s3/.
  • Página 79 Specific S3 buckets (Buckets de S3 específicos) y, a continuación, elija Create role (Crear rol). Una vez que haya creado la primera instancia de bloc de notas para AWS DeepLens, podrá elegir un rol de IAM disponible de la lista Use existing role (Usar rol existente).
  • Página 80: Paso 3: Editar El Modelo En Sagemaker

    Ahora carga el archivo de entrenamiento y lo utiliza para editar el modelo. En la pestaña Jupyter, elija Upload (Cargar). Vaya al archivo extraído deeplens-hotdog-or-not-hotdog.ipynb, a continuación, elija Open (Abrir) y, a continuación, elija Upload (Cargar). Localice y elija el bloc de notas deeplens-hotdog-or-not-hotdog.
  • Página 81 AWS DeepLens Guía para desarrolladores Uso de SageMaker para aprovisionar un modelo para un proyecto...
  • Página 82: Paso 4: Optimizar El Modelo

    Ahora que tiene un modelo de mxNet entrenado hay un último paso necesario antes de ejecutar el modelo en la GPU de AWS DeepLens. El modelo de mxNet entrenado no está disponible en un formato optimizado informáticamente. Si implementamos el modelo en el formato original, se ejecutará en la CPU a través de mxNet a velocidad subóptima.
  • Página 83: Paso 5: Importar El Modelo

    En Model settings (Configuración del modelo), haga lo siguiente: ParaArtefacto del modeloEscriba la ruta hasta los artefactos que cargó al bucket de Amazon S3 en el paso anterior. La ruta comienza con s3://deeplens-. Por ejemplo, si ha seguido los nombres del paso 1, la ruta será s3://deeplens-sagemaker-<your-name>/<dir>.
  • Página 84: Paso 6: Crear Una Función De Lambda De Inferencia

    Paso 6: Crear una función de Lambda de inferencia UsarAWS LambdaPara crear una función Lambda que utiliza su modelo. Para obtener instrucciones específicas con código de muestra, consulte Crear y publicar una función Lambda de inferencia en AWS DeepLens (p. 86).
  • Página 85: Paso 7: Crear Un Nuevo Proyecto De Aws Deeplens

    Uso de SageMaker para aprovisionar un modelo para un proyecto Paso 7: Crear un nuevo proyecto de AWS DeepLens Ahora cree un nuevo proyecto de AWS DeepLens y añádale el modelo editado. Abra el iconoAWS DeepLensconsola de enhttps://console.aws.amazon.com/deeplens/. Elija Projects (Proyectos).
  • Página 86: Paso 8: Revisar E Implementar El Proyecto

    En la lista de proyectos, elija el proyecto que acaba de crear y, a continuación, elija Deploy to device (Implementar en dispositivo). Elija su AWS DeepLens como dispositivo de destino y haga clic en Review (Revisar). Revise la configuración y, a continuación, elija Deploy (Implementar).
  • Página 87: Paso 9: Ver El Resultado De Su Modelo

    AWS DeepLens Guía para desarrolladores Uso de SageMaker para aprovisionar un modelo para un proyecto Paso 9: Ver el resultado de su modelo Para ver la salida del modelo, siga las instrucciones que se describen en Visualización de transmisiones de salida de AWS DeepLens (p.
  • Página 88: Trabajo Con Proyectos Personalizados De

    DeepLens Tras haber explorado uno o varios proyectos de muestra, es posible que desee crear e implementar sus propios proyectos de AWS DeepLens. Para ello, tendrá que hacer todas o la mayor parte de las siguientes tareas. • Entrenamiento de un modelo de aprendizaje profundo personalizado en SageMaker o en otro lugar.
  • Página 89: Importar Un Modelo Entrenado Externamente

    ParaRuta del artefacto del modeloEscriba la ruta completa de la ubicación de Amazon Simple Storage Service (Amazon S3) de los artefactos creados cuando entrenaba su modelo. La ruta comienza con s3://deeplens-. Por ejemplo, si sigue las convenciones de nomenclatura que utilizamos a lo largo de esta documentación, la ruta será s3://deeplens- sagemaker-your_name/<dir>.
  • Página 90: Optimizar Un Modelo Personalizado

    La función de inferencia optimiza el modelo para que se ejecute en AWS DeepLens y alimenta cada fotograma de la cámara en el modelo para obtener predicciones. Para la función de inferencia, se utiliza AWS Lambda para crear una función que se...
  • Página 91 IoT. Se estará modificando lambda_function.py para extraer fotogramas de la cámara, realizar inferencias y enviar predicciones de vuelta mediante AWS IoT Greengrass. Inicie sesión en la AWS Management Console y abra la consola de AWS Lambda en https:// console.aws.amazon.com/lambda/.
  • Página 92 (p. 142). • El módulo mo permite a su función Lambda acceder al optimizador de modelos de AWS DeepLens. Optimiza el modelo entrenado en la nube para funcionar eficientemente en la GPU de DeepLens. Para obtener más información, consulte Módulo (mo) para la optimización del modelo (p.
  • Página 93 Para obtener más información acerca del resultado de parseResult, vea Model.ParseResult. 11. En este paso, se añade código para devolver los resultados a AWS IoT. Esto facilita registrar los resultados en una base de datos o desencadenar una acción basada en las predicciones.
  • Página 94 """Empty entry point to the Lambda function invoked from the edge.""" return def infinite_infer_run(): """ Run the DeepLens inference loop frame by frame""" # Create an IoT client for sending to messages to the cloud. client = greengrasssdk.client('iot-data') iot_topic = '$aws/things/{}/infer'.format(os.environ['AWS_IOT_THING_NAME']) # Create a local display instance that will dump the image bytes to a FIFO # file that the image can be rendered locally.
  • Página 95: Crear E Implementar Un Proyecto De Aws Deeplens Personalizado

    13. En la lista del menú desplegable Actions (Acciones), elija Publish new version (Publicar nueva versión). Cuando publica una función, ésta queda disponible en la consola de AWS DeepLens y disponible para agregarla al proyecto personalizado. Crear e implementar un proyecto de AWS DeepLens...
  • Página 96: Uso De Sagemaker Neo Para Optimizar La Inferencia Enaws Deeplens

    Compilación de un modelo de AWS DeepLens Para usar Neo para compilar un modelo, puede utilizar la AWS CLI para crear y ejecutar un trabajo de compilación. Primero cree un archivo de configuración de trabajo en JSON para especificar lo siguiente: El bucket de Amazon S3 desde el que cargar los artefactos del modelo sin formato, el formato de los datos de capacitación y el marco de aprendizaje automático, que indica cómo es el trabajo para ejecutarlo.
  • Página 97: Importación De Un Modelo Compilado En La Consola De Aws Deeplens

    AWS DeepLens Guía para desarrolladores Uso de Neo para optimizar la inferencia Para crear y ejecutar el trabajo de Neo, escriba el siguiente comando de la AWS CLI en una ventana de terminal. aws sagemaker create-compilation-job \ --cli-input-json file://neo_deeplens.json \ --region us-west-2 Además deAWS CLIPara crear y ejecutar el trabajo de compilación, también puede usar la consola...
  • Página 98: Tutoriales De Creación De Proyectos En

    En este tutorial, le guiaremos por un proceso integral para la compilación y ejecución de un proyecto de AWS DeepLens que detecte posiciones de cabeza. El proyecto se basa en el proyecto de muestra de detección de posiciones de cabeza. En concreto, aprenderá lo siguiente: 1.
  • Página 99: Obtener El Proyecto De Muestra De Aws En Github

    AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza Obtener el proyecto de muestra de AWS en GitHub Este tutorial se basa en el proyecto de muestra de detección de posiciones de cabeza (p.
  • Página 100: Configurar El Almacén De Datos Del Proyecto En Amazon S3

    • deeplens-sagemaker-models-<my-name>/headpose/TFartifacts: para almacenar los datos de salida del entrenamiento, es decir, los artefactos del modelo entrenado. • deeplens-sagemaker-models-<my-name>/headpose/customTFcodes • deeplens-sagemaker-models-<my-name>/headpose/datasets: para almacenar los datos de entrada para el entrenamiento, las imágenes preprocesadas con posiciones de cabeza conocidas. • deeplens-sagemaker-models-<my-name>/headpose/testIMs Siga los pasos que se indican a continuación para crear el bucket y las carpetas con la consola de Amazon...
  • Página 101: Preparar Los Datos De Entrada Para El Entrenamiento En Sagemaker

    GitHub (p. 95). Puede ejecutar este script en el equipo de forma local o en la nube de AWS mediante una instancia de bloc de notas Python. En esta sección, aprenderá a preparar los datos del entrenamiento de forma local.
  • Página 102: Entrenamiento De Un Modelo De Detección De Posiciones De Cabezas En Sagemaker

    En lugar de ejecutarlos localmente, puede preparar los datos de entrada en la nube de AWS mediante una celda de código en una instancia de bloc de notas de SageMaker, dondecv2y Python 2.7 (python2) están disponibles y ejecute los comandos enPaso 2yPaso 3, respectivamente, según se indica a continuación:...
  • Página 103 A continuación, elija Open (Abrir). Si va a ejecutar el script de preprocesamiento en la nube de AWS, vaya a la carpeta headpose- estimator-apache-mxnet-master, seleccione preprocessingDataset_py2.py y elija Open (Abrir). En la pestaña Files (Archivos) del bloc de notas TFHeadpose, elija Upload (Cargar) para cada uno de los archivos recién seleccionados para completar la importación de archivos al bloc de notas.
  • Página 104 El fragmento de código se muestra de la siguiente forma: from sagemaker.tensorflow import TensorFlow source_dir = os.path.join(os.getcwd()) # AWS DeepLens currently supports TensorFlow version 1.4 (as of August 24th 2018). estimator = TensorFlow(entry_point='resnet_headpose.py',...
  • Página 105 Para transformar el artefacto del modelo entrenado (model.tar.gz) en un archivo protobuff congelado (frozen.model.pb), haga lo siguiente: Ejecute el siguiente código para utilizar el AWS SDK para Python (boto3) en una celda de código en el bloc de notas para descargar el artefacto del modelo entrenado desde su bucket...
  • Página 106 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza Para descomprimir el artefacto del modelo entrenado (model.tar.gz), ejecute el siguiente comando de shell en una celda de código: !tar -xvf model.tar.gz Este comando producirá el siguiente resultado:...
  • Página 107 En el código anterior, debe especificar los nodos de entrada y salida, es decir, 'Const_1' y 'softmax_tensor'. Para obtener más información, consulte resnet_model_headpose.py. Al crear un proyecto de AWS DeepLens posteriormente, tendrá que añadir este gráfico congelado al proyecto. Para ello, debe cargar el archivo protobuff en una carpeta de Amazon S3.
  • Página 108: Cree Una Función Lambda De Inferencia Para Detectar Posiciones De Cabezas

    Crear y ejecutar el proyecto de detección de posición de cabeza Una vez cargado, el modelo está listo para importarse en su proyecto de AWS DeepLens. Antes de crear el proyecto, debemosCree una función Lambda que realiza la inferencia en función de este modelo entrenado (p.
  • Página 109 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza result_path = '/tmp/results.mjpeg' # Create the FIFO file if it doesn't exist. if not os.path.exists(result_path): os.mkfifo(result_path) # This call will block until a consumer is available with open(result_path, 'w') as fifo_file: while not self.stop_request.isSet():...
  • Página 110 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza font_color = (20, 165, 255) line_type = 8 font_type = cv2.FONT_HERSHEY_DUPLEX # Draw the rectangle with some text to indicate the region. if label == 0: cv2.putText(frame, "Down Right", (1024, 440 - 15), font_type, 3, font_color,...
  • Página 111 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza (0, 255, 0), -1) else: cv2.putText(frame, "Up Left", (1024, 440 - 15), font_type, 3, font_color, line_type) cv2.rectangle(overlay, (rect_margin, rect_margin), (rect_width, rect_height), (0, 255, 0), -1) # Set the opacity alpha = 0.2...
  • Página 112 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza self.update_coords(frame, velocity, self.adjust_y_vel(velocity, pct_of_center), label) elif label == 2: self.update_coords(frame, velocity, -1*velocity, label) elif label == 3: self.update_coords(frame, self.adjust_x_vel(velocity, pct_of_center), velocity, label) elif label == 4: self.update_coords(frame, self.adjust_x_vel(velocity, pct_of_center),...
  • Página 113 AWS DeepLens Guía para desarrolladores Crear y ejecutar el proyecto de detección de posición de cabeza # resolution is constant during the lifetime of the Lambda. ret, sample_frame = awscam.getLastFrame() if not ret: raise Exception("Failed to get frame from the stream") # Construct the custom helper object.
  • Página 114: Crear E Implementar El Proyecto De Detección De Posiciones De Cabeza

    Crear e implementar el proyecto de detección de posiciones de cabeza Antes de crear el proyecto de AWS DeepLens, debe importar el modelo en AWS DeepLens. Dado que el artefacto del modelo entrenado por SageMaker se ha convertido en un archivo protobuff, debe tratar el artefacto del modelo transformado como entrenado externamente.
  • Página 115 Lambda publicada para la detección de posiciones de cabeza y elijaAñadir la función. La función se debe publicar en AWS Lambda y en su nombre debe contener el prefijo deeplens- para que sea visible aquí. Si ha publicado varias versiones de la función, asegúrese de elegir la función de la versión de corrección.
  • Página 116: Administración De Su Dispositivo

    AWS DeepLens Guía para desarrolladores Arrancar su dispositivo de forma segura Administración de su dispositivo AWS DeepLens The following topics explain how to manage your AWS DeepLens device and access device resource from a AWS IoT Greengrass Lambda function: Temas •...
  • Página 117: Cancelación Del Registro Del Dispositivo Aws Deeplens

    Cancelación del registro del dispositivo AWS DeepLens La cancelación del registro de su AWS DeepLens desasocia su cuenta de AWS y las credenciales del dispositivo. Antes de cancelar el registro de su dispositivo, elimine las fotos o los vídeos almacenados en él.
  • Página 118: Eliminación De Recursos De Aws Deeplens

    Junto a Device Settings (Configuración del dispositivo), elija Deregister (Anular registro). Cuando se le pida confirmación, elija Deregister (Anular registro). Se ha anulado el registro de su AWS DeepLens. Para utilizarlo de nuevo, repita cada uno de estos pasos: •...
  • Página 119: Restauración De Un Aws Deeplens A La Configuración De Fábrica

    Restaurar el dispositivo AWS DeepLens a la configuración de fábrica En algún momento después de probarAWS DeepLens, ustedpodríaPara restablecer el dispositivo a su configuración de fábrica para empezar de nuevo. El primer procedimiento explica cómo realizar una partición de una unidad flash USB en dos partes y hacer que la primera partición sea de arranque.
  • Página 120: Preparingpara El Restablecimiento De Fábrica De Suaws Deeplensdispositivo

    PreparingPara el restablecimiento de fábrica de suAWS DeepLensDispositivo El restablecimiento de su AWS DeepLens borra por completo los datos del dispositivo y lo devuelve a su configuración de fábrica. Para prepararse, tiene que seguir unos pasos que requieren hardware adicional.
  • Página 121 Para realizar la partición de una unidad USB y hacer que sea de arranque mediante un equipo con Ubuntu Para formatear la unidad USB ejecutando comandos de Ubuntu en un dispositivo AWS DeepLens o en un equipo que ejecute Ubuntu, haga lo siguiente.
  • Página 122 AWS DeepLens Guía para desarrolladores PreparingPara el restablecimiento de fábrica de suAWS DeepLensDispositivo EnelConsola de GParted, elija/dev/sdaEn el menú desplegableinelUPER-esquina derecha y, a continuación, eliminar todas las particiones existentes. Si las particiones están bloqueadas, abra el menú de contexto (clic con el botón derecho) y seleccione unmount (desmontar).
  • Página 123 AWS DeepLens Guía para desarrolladores PreparingPara el restablecimiento de fábrica de suAWS DeepLensDispositivo Para crear la partición NTFS de al menos 9 GB de capacidad, elija el icono del archivo, establezca los parámetroscomoSigas, ythenelijaAdd: Free space preceding: (Espacio libre precedente:) 0 New size: (Nuevo tamaño:)28551...
  • Página 124 AWS DeepLens Guía para desarrolladores PreparingPara el restablecimiento de fábrica de suAWS DeepLensDispositivo Para que la unidad USB particionada sea de arranque desde la partición FAT32 mediante UNetbootin, siga los pasos que se indican a continuación.: Descargue la imagen ISO de Ubuntu personalizada.
  • Página 125 Para copiar los archivos de restauración de fábrica en la partición NTFS de la unidad USB, siga estos pasos: Descargue el paquete de restauración de fábrica comprimido de su versión de AWS DeepLens. Ambos tienen alrededor de 3,5 GB de tamaño.
  • Página 126: Restauración De Un Aws Deeplens A La Configuración De Fábrica

    Despuésaproximadamente seisminutos, la luz LED de alimentaciónstopsintermitente y el terminalCLOSEs, queindicatesQue se haya completado el restablecimiento de fábrica. Lan, elDispositivo derebootsDe forma automática. El dispositivo se ha restablecido. Puede desconectar su memoria flash USB de AWS DeepLens.
  • Página 127: Registro Y Solución De Problemas

    GreengrassRegistros.AWS IoT Greengrass Logs escribe logs enAmazon CloudWatch Logsy al sistema de archivos local de su dispositivo. Cuando se está ejecutando un proyecto,AWS DeepLensenvía mensajes de diagnóstico a CloudWatch Logs comoAWS IoT Greengrassy a suAWS DeepLensdispositivo como localLogs del sistema de archivos.
  • Página 128: Logs Del Sistema De Archivos

    Los registros de AWS IoT Greengrass para AWS DeepLens también se almacenan en el sistema de archivos local en su dispositivo AWS DeepLens. Los logs del sistema de archivos local incluyen el log de bloqueo, que no está disponible en los logs de CloudWatch Logs.
  • Página 129: Guía Para Solucionar Problemas

    Temas • Cómo tratar unaimport error – undefined symbol? (p. 125) • ¿Cómo puede determinar qué versión del software de AWS DeepLens tiene? (p. 126) • ¿Cómo puedo comprobar la última versión del paquete de software awscam? (p. 126) •...
  • Página 130 DeepLens tiene? El software en el dispositivo AWS DeepLens es un paquete Debian denominado awscam. Para encontrar la versión de awscam que tiene, puede utilizar la consola de AWS DeepLens o el terminal de su dispositivo AWS DeepLens. Para utilizar la consola de AWS DeepLens Inicie sesión en la...
  • Página 131 Linux a Ubuntu 4.10.17+. ¿Cómo puedo actualizar el paquete de software awscam a la última versión? Si ha activado las actualizaciones automáticas al configurar su dispositivo, AWS DeepLens actualiza automáticamente awscam cada vez que encienda el dispositivo. Si encuentra que el funcionamiento del...
  • Página 132 AWS DeepLens Guía para desarrolladores Solución de problemas de software en el dispositivo software es obsoleto, reinicie el dispositivo AWS DeepLens y espere unos minutos una vez que el sistema se está ejecutando. Puede que la actualización se retrase o falle en las siguientes condiciones: •...
  • Página 133 AWS DeepLens Guía para desarrolladores Solución de problemas de software en el dispositivo ¿Cómo puedo actualizar las dependencias del paquete de software awscam? Al actualizar awscam en su dispositivo, es posible que aparezca un mensaje de error sobre dependencias no superadas. Se muestra un ejemplo de este tipo de mensaje de error en el siguiente resultado: Reading package lists...
  • Página 134: Solución De Problemas De Registro Del Dispositivo

    DeepLens. Temas • ¿Por qué mi intento de usar la consola de AWS DeepLens para registrar un dispositivo entra en un bucle aparentemente interminable y no se completa? (p. 131) • MisAWS DeepLensEdición 2019 El dispositivo esn'tDetectaredDurante el registro (p. 131) •...
  • Página 135: Misaws Deeplensedición 2019 El Dispositivo Esn'tdetectareddurante El Registro

    Cuando utiliza la consola de AWS DeepLens para registrar un dispositivo, si el registro no se completa después de seleccionar Registrar dispositivo, es posible que haya utilizado un explorador no compatible.
  • Página 136 Conecte el dispositivo AWS DeepLens. En la parte posterior del dispositivo AWS DeepLens, inserte un clip o una varilla fina en el agujero de restablecimiento. Cuando oiga un clic, espere unos 20 segundos a que el indicador del Wi-Fi (luz del medio) parpadee.
  • Página 137 Wifi de su hogar u oficina. Para conectar su dispositivo DeepLens a la red Wifi de su casa u oficina cuando el SSID y la contraseña de la Wifi contienen caracteres especiales Conéctese a la red wifi de su dispositivo.
  • Página 138 Cuando se le solicite, actualice el software del dispositivo a la versión 1.3.10 o superior. La actualización garantiza que su dispositivo AWS DeepLens se pueda conectar a la red wifi de su casa u oficina desde la consola de AWS DeepLens para que no tenga que repetir este proceso.
  • Página 139 Haga doble clic en su certificado para cargarlo en la cadena de claves. La cadena de claves le pedirá una contraseña para el certificado. Escriba DeepLens. Para ver el resultado del proyecto transmitido desde su dispositivo, abra Chrome en su equipo Mac y navegue a la página web del servidor de vídeo de su dispositivo en...
  • Página 140 AWS DeepLens es anterior a la versión 1.2.4, o navegar a http://10.105.168.217 si el paquete de software de su dispositivo tiene la versión 1.2.4 o una posterior.
  • Página 141: Solución De Problemas Con Las Implementaciones De Modelo En El Dispositivo Aws Deeplens

    Si el comando devuelve el código de error 203, vuelva a instalar awscam-webserver ejecutando los siguientes comandos en su dispositivo AWS DeepLens: sudo apt-get install --reinstall awscam-webserver sudo reboot El reinicio correcto configura la red wifi del dispositivo y la luz LED del centro en el dispositivo comenzará a parpadear.
  • Página 142 ¿Cómo garantizar que existe una inferencia razonable para un modelo? (p. 140) • ¿Cómo se determina por qué AWS DeepLens clasifica datos incorrectamente cuando el modelo obtiene buenos resultados en el conjunto de validación? (p. 140) ¿Cómo se resuelve un error de acceso denegado encontrado al descargar un modelo después de que el registro del dispositivo...
  • Página 143 AWS DeepLens Guía para desarrolladores Solución de problemas de implementaciones de modelo en el dispositivo "op": "Pooling", "name": "pool1", "attr": { "global_pool": "True", "kernel": "(7, 7)", "pool_type": "avg", "stride": "(1, 1)" "inputs": <your input shape> Después de lastridepropiedad se agrega a todas las capas de la agrupación, no debería obtener el error y todo debería funcionar según lo previsto.
  • Página 144 AWS DeepLens clasifica los datos de forma incorrecta incluso si el modelo presenta un buen rendimiento con un conjunto de validación cuando los datos de entrenamiento no se han normalizado. Volver a entrenar el modelo con datos de entrenamiento normalizados.
  • Página 145: Biblioteca Del Dispositivo

    Biblioteca del dispositivo AWS DeepLens La biblioteca de dispositivos AWS DeepLens se compone de un conjunto de módulos de Python que proporcionan objetos y métodos para diversas operaciones de dispositivos: • El módulo awscam para ejecutar código de inferencia basado en un modelo del proyecto.
  • Página 146: Objeto De Modelo

    • ret: un valor booleano (true o false) que indica si la llamada se ha realizado correctamente. • video_frame: un numpy.ndarray que representa un fotograma de vídeo. Objeto de modelo class awscam.Model Representa un modelo de aprendizaje automático de AWS DeepLens. import awscam model = awscam.Model(model_topology_file, loading_config, runtime) Métodos •...
  • Página 147: Constructor De Clase De Modelo

    AWS DeepLens Guía para desarrolladores Objeto de modelo Constructor de clase de modelo Crea un objeto awscam.Model para ejecutar la inferencia en un tipo específico de procesador y un tiempo de ejecución de la inferencia concreto. Para los modelos que no ha compilado Neo, el objeto Model expone el análisis del resultado de la inferencia sin formato para devolver resultados de la inferencia...
  • Página 148 = model.doInference(video_frame) Parameters • video_frame: obligatorio. Un fotograma de vídeo de las fuentes de vídeo de AWS DeepLens. Tipo de retorno • dict— El resultado de la inferencia, como un diccionario de capas de salida basado en el modelo cargado.
  • Página 149 AWS DeepLens Guía para desarrolladores Objeto de modelo En el siguiente resultado de ejemplo se muestra el resultado de la inferencia sin formato del mismo modelo (arriba) que se ejecuta en el tiempo de ejecución de Neo. 0 : array( 2.41881448e-08,...
  • Página 150 AWS DeepLens Guía para desarrolladores Objeto de modelo model.parseResult Método Analiza los resultados de la inferencia sin formato de algunos modelos de uso común, como, por ejemplo, clasificación, SSD y segmentación, no compilados por Neo. Para los modelos personalizados, debe escribir sus propias funciones de análisis.
  • Página 151: Módulo Mo

    Módulo (mo) para la optimización del modelo El módulo mo de Python es una biblioteca de optimización de modelos de AWS DeepLens que puede utilizar para convertir sus artefactos de modelo Caffe, Apache MXNet o Tensorflow (p.
  • Página 152 La optimización convierte artefactos de modelo TensorFlow (de los archivos de gráfico congelado .pb) en artefactos de modelo de AWS DeepLens. • aux_inputs: un objeto de diccionario Python que contiene entradas auxiliares, incluidas entradas comunes a todas las plataformas y entradas específicas a plataformas individuales.
  • Página 153 AWS DeepLens Guía para desarrolladores Método optimize Nombre de elemento Plataformas aplicables Descripción Todos Directorio de salida. El directorio --output-dir predeterminado es /opt/ awscam/artifacts. Caffe La ruta del archivo prototxt. El --input_proto valor predeterminado es una cadena vacía (""). MXNet Número de la fecha de inicio.
  • Página 154 AWS DeepLens Guía para desarrolladores Método optimize Causa Acción status • ConsulteSolución de problemas con el optimizador de modelos (p. 151)para ver acciones recomendadas para mensajes de error que aparecen en los CloudWatch Logs paraAWS DeepLensy en laAWS DeepLensDispositivo. Para cargar el modelo optimizado para la inferencia, llame a la API awscam.Model (p.
  • Página 155: Solución De Problemas Con El Optimizador De Modelos

    En esta sección, encontrará una lista de preguntas frecuentes y respuestas acerca de los errores notificados por el optimizador de modelos. El optimizador de modelos de AWS DeepLens depende del SDK de Intel Computer Vision, que se instala con el software de AWS DeepLens. Para los errores que no se aborden aquí, consulte soporte del SDK de Intel Computer Vision y plantee una pregunta en el foro.
  • Página 156 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos • ¿Cómo se soluciona el error»No se puede convertir el tipo de marcador de posición porque no todas sus salidas se 'convierten' en operaciones flotantes." ? ERROR (p. 157) •...
  • Página 157 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos // DEPRECATED: use 'layer' instead. repeated V1LayerParameter layers = 2; Esto significa que cualquier topología debe contener capas como estructuras de nivel superior en prototxt. Para obtener más información, consulte topología...
  • Página 158 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos 3. Formato de capa de entrada 3: layer name: "data" type: "Input" top: "data" input_param {shape: {dim: 1 dim: 3 dim: 600 dim: 1000}} layer name: "im_info"...
  • Página 159 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos ¿Cómo se soluciona el error»No se puede inferir una forma para el nodo {} porque no hay ningún Caffe disponible. Registre la función de inferencia de python para op o use Caffe para la inferencia de formas."...
  • Página 160 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos ¿Cómo se soluciona el error»El nodo del marcador de posición no tiene puerto de entrada, pero se ha proporcionado un puerto de entrada." ? ERROR Puede que haya especificado un nodo de entrada para un nodo de marcador de posición, pero el modelo no contiene el nodo de entrada.
  • Página 161 AWS DeepLens Guía para desarrolladores Solución de problemas con el optimizador de modelos ¿Cómo se soluciona el error»No se puede preprocesar el gráfico de TensorFlow tras leer desde el archivo del modelo. El archivo está dañado o tiene un formato no compatible." ? ERROR Asegúrese de haber especificado el archivo de modelo correcto, de que el archivo tenga un formato...
  • Página 162: Módulo Deeplens_Kinesis_Video

    DeepLensEn Kinesis Video Streams y utilice los datos como entrada para el entrenamiento. El módulo, DeepLens_Kinesis_Video, ya está instalado en el dispositivo AWS DeepLens. Puede llamar a este módulo en una función de Lambda implementada en suAWS DeepLensDevice como parte de unaAWS DeepLensProyecto.
  • Página 163: Función Createproducer

    Objeto Stream (p. 161) Función DeepLens_Kinesis_Video.createProducer Crea una instancia del objeto de cliente del SDK de Kinesis Video Streams Producer paraAWS DeepLens. Utilice la instancia para conectar suAWS DeepLensDevice a laAWSEn la nube y para administrar secuencias de vídeo desde el dispositivo a Kinesis Video Streams.
  • Página 164: Objeto Producer

    Un token de sesión, si existe alguno. Un valor vacío significa un token sin especificar. • aws_region Tipo: "string" : obligatorio Sí La región de AWS a la que enviar los datos. Para aplicaciones de AWS DeepLens, el único valor válido es us-east-1. Devuelve • Un objeto Producer (p.
  • Página 165: Objeto Stream

    AWS DeepLens Guía para desarrolladores Objeto Stream Parámetros • stream_name Tipo: "string" : obligatorio Sí El nombre de una secuencia de Kinesis que suAWS DeepLensEl dispositivo envía fuentes de vídeo a. Si la transmisión no existe, Kinesis Video Streams la crea. De lo contrario, utiliza la transmisión existente para recibir las fuentes de vídeo.
  • Página 166 AWS DeepLens Guía para desarrolladores Objeto Stream Método Stream.start Notifica al productor que empiece a enviar fuentes de vídeo desde suAWS DeepLensDevice a la transmisión de Kinesis. Sintaxis stream (p. 161).start() Parámetros • Ninguna Devuelve • Ninguna Método Stream.stop Notifica al productor que deje de enviar fuentes de vídeo desde suAWS DeepLensDevice a la transmisión de Kinesis.
  • Página 167: Seguridad

    Cumplimiento de normas de seguridad (p. 178) Protección de los datos AWS DeepLens no recopila datos del dispositivo. Los fotogramas de vídeo de la cámara y los resultados de inferencia se limitan al dispositivo localmente. Como usuario, puede controlar cómo y dónde publicar resultados de inferencia en otros servicios de AWS en la función Lambda del proyecto.
  • Página 168: Audience

    Usuario raíz de la cuenta de AWS Cuando se crea por primera vez una cuenta de AWS, se comienza con una única identidad de inicio de sesión que tiene acceso completo a todos los servicios y recursos de AWS de la cuenta. Esta identidad se denominaAWSaccountUsuario raízPara obtener acceso a ella, inicie sesión con la dirección de correo...
  • Página 169: Usuarios Y Grupos De Iam

    Consoleporcambiar roles. Puede asumir un rol llamando a una operación de la AWS CLI o de la API de AWS, o utilizando una URL personalizada. Para obtener más información acerca de los métodos para el uso de roles, consulte Uso de roles de IAM en la Guía del usuario de IAM.
  • Página 170: Administración De Acceso Mediante Políticas

    CLIorAWSSolicitudes de API. Es preferible hacerlo de este modo a almacenar claves de acceso en la instancia EC2. Para asignar un rol de AWS a una instancia EC2 y ponerla a disposición de todas las aplicaciones, cree un perfil de instancia asociado a la misma. Un perfil de instancia contiene el rol y permite a los programas que se ejecutan en la instancia EC2 obtener credenciales temporales.
  • Página 171: Políticas Basadas En Recursos

    AWS. Las políticas administradas incluyen las políticas administradas por AWS y las políticas administradas por el cliente. Para obtener más información acerca de cómo elegir una política administrada o una política insertada, consulte...
  • Página 172: Varios Tipos De Políticas

    Las acciones de la política generalmente tienen el mismo nombre que la operación de API de AWS asociada. Hay algunas excepciones, como acciones de solo permiso que no tienen una operación de API coincidente. También hay algunas operaciones que requieren varias acciones en una política.
  • Página 173: Políticas Basadas En Recursos De Aws Deeplens

    AWS DeepLens no admite las listas de control de acceso (ACL). Autorización basada en etiquetas de AWS DeepLens AWS DeepLens no admite el etiquetado de recursos o el control de acceso basado en etiquetas. AWS DeepLensRoles de IAM UnaRol de IAMes una entidad dentro de suAWSque tiene permisos específicos.
  • Página 174: Ejemplos De Políticas De Aws Deeplens Basadas En Identidades

    DeepLensde AWS. Tampoco pueden realizar tareas mediante la AWS Management Console, la AWS CLI, o la API de AWS. Un administrador de IAM debe crear políticas de IAM que concedan permisos a los usuarios y a los roles para realizar operaciones de la API concretas en los recursos especificados que necesiten.
  • Página 175: Uso De La Consola De Aws Deeplens

    AWS DeepLens en su cuenta de AWS. Si crea una política basada en identidad que sea más restrictiva que el mínimo de permisos necesarios, la consola no funcionará del modo esperado para las entidades (usuarios o roles de IAM) que tengan esa política.
  • Página 176 AWS DeepLens Guía para desarrolladores Ejemplos de políticas basadas en identidad "Sid": "DeepLensIoTAttachCertificatePolicyAccess", "Effect": "Allow", "Action": [ "iot:AttachPrincipalPolicy" "Resource": [ "arn:aws:iot:*:*:policy/deeplens*", "arn:aws:iot:*:*:cert/*" "Sid": "DeepLensIoTDataAccess", "Effect": "Allow", "Action": [ "iot:GetThingShadow", "iot:UpdateThingShadow" "Resource": [ "arn:aws:iot:*:*:thing/deeplens_*" "Sid": "DeepLensIoTEndpointAccess", "Effect": "Allow", "Action": [ "iot:DescribeEndpoint"...
  • Página 177 AWS DeepLens Guía para desarrolladores Ejemplos de políticas basadas en identidad "Action": [ "s3:CreateBucket" "Resource": [ "*" "Sid": "DeepLensIAMPassRoleAccess", "Effect": "Allow", "Action": [ "iam:PassRole" "Resource": [ "*" "Condition": { "StringEquals": { "iam:PassedToService": [ "greengrass.amazonaws.com", "sagemaker.amazonaws.com" "Sid": "DeepLensIAMLambdaPassRoleAccess", "Effect": "Allow", "Action": [ "iam:PassRole"...
  • Página 178 AWS DeepLens Guía para desarrolladores Ejemplos de políticas basadas en identidad "greengrass:DisassociateServiceRoleFromAccount", "greengrass:GetAssociatedRole", "greengrass:GetConnectivityInfo", "greengrass:GetCoreDefinition", "greengrass:GetCoreDefinitionVersion", "greengrass:GetDeploymentStatus", "greengrass:GetDeviceDefinition", "greengrass:GetDeviceDefinitionVersion", "greengrass:GetFunctionDefinition", "greengrass:GetFunctionDefinitionVersion", "greengrass:GetGroup", "greengrass:GetGroupCertificateAuthority", "greengrass:GetGroupCertificateConfiguration", "greengrass:GetGroupVersion", "greengrass:GetLoggerDefinition", "greengrass:GetLoggerDefinitionVersion", "greengrass:GetServiceRoleForAccount", "greengrass:GetSubscriptionDefinition", "greengrass:GetSubscriptionDefinitionVersion", "greengrass:ListCoreDefinitionVersions", "greengrass:ListCoreDefinitions", "greengrass:ListDeployments", "greengrass:ListDeviceDefinitionVersions", "greengrass:ListDeviceDefinitions", "greengrass:ListFunctionDefinitionVersions", "greengrass:ListFunctionDefinitions", "greengrass:ListGroupCertificateAuthorities", "greengrass:ListGroupVersions", "greengrass:ListGroups", "greengrass:ListLoggerDefinitionVersions",...
  • Página 179: Permitir A Los Usuarios Ver Sus Propios Permisos

    En este ejemplo, se muestra cómo podría crear una política que permita a los usuarios de IAM ver las políticas administradas e insertadas que se asocian a la identidad de sus usuarios. Esta política incluye permisos para llevar a cabo esta acción en la consola o mediante programación con la AWS CLI o la API de AWS.
  • Página 180: Solución De Problemas

    AWS DeepLens. Algunos servicios de AWS le permiten transferir un rol existente a dicho servicio en lugar de crear un nuevo rol de servicio o uno vinculado al servicio. Para ello, debe tener permisos para transferir el rol al servicio.
  • Página 181: Quiero Ver Mis Claves De Acceso

    En el siguiente ejemplo, el error se produce cuando un usuario de IAM denominado marymajor intenta utilizar la consola para realizar una acción en AWS DeepLens. Sin embargo, la acción requiere que el servicio cuente con permisos otorgados por un rol de servicio. Mary no tiene permisos para transferir el rol al servicio.
  • Página 182: Cumplimiento De Normas De Seguridad

    Su responsabilidad de cumplimiento al usar servicios de AWS está determinada por la sensibilidad de sus datos, los objetivos de cumplimiento de su empresa y las leyes y regulaciones aplicables. AWS proporciona los siguientes recursos para ayudar con el cumplimiento: •...
  • Página 183: Historial De Revisión

    Historial de revisión de AWS DeepLens • Versión de API: 2017-08-31 En la siguiente tabla se describen los cambios y adiciones que se han realizado en la documentación de la Guía para desarrolladores de AWS DeepLens. update-history-change update-history-description update-history-date Lanzamiento deAWS...
  • Página 184 AWS DeepLens Guía para desarrolladores consulte la sección Arrancar su dispositivo de forma segura. Integración con Amazon Kinesis Utiliza Kinesis Video Streams 14 de junio de 2018 Video Streams (p. 179) paraAWS DeepLensBiblioteca de vídeo para enviar fuentes de vídeo desdeAWS DeepLensa Kinesis Video Streams durante un período especificado.
  • Página 185 AWS DeepLens Guía para desarrolladores Importación desde Simplifica el proceso de 22 de febrero de 2018 SageMaker (p. 179) importación de un modelo entrenado con SageMaker. Para obtener más información, consulteImportación de su modelo entrenado por SageMaker. Optimización de Añade soporte para optimizar 31 de enero de 2018 modelo (p.
  • Página 186: Awsglosario

    AWS DeepLens Guía para desarrolladores AWSGlosario Contiene la más recienteAWSterminología, consulte laAWSGlosarioen laAWSReferencia general de.
  • Página 187: Clxxxiii

    AWS DeepLens Guía para desarrolladores Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés. clxxxiii...

Tabla de contenido