Wojtek
Hola,
Mi objetivo es:
Muestre datos de telemetría en vivo de sensros (conectados a IoTHub y StreamAnalystics) en el mismo informe de PowerBi.
Solución para un solo sensor (funciona muy bien):
Sensor -> IotHub -> análisis de flujo — (Configuración de análisis de flujo de consulta) –> conjunto de datos de PowerBi -> informe -> publicar en la web
Deseo hacer sam pero para 3 sensores.
Problema que tengo:
¿Cómo enviar datos a PowerBi para poder usar la telemetría de los 3 sensores en el mismo informe?
¿Debo enviar datos desde el análisis de flujo a Data Lake/ etc. y luego a PowerBi o todo se trata de Query utilizado en el análisis de flujo?
Estoy enviando datos del sensor como archivo JSON.
Gracias por cualquier consejo,
Wojtek
v-yuezhe-msft
@Wojtek,
No es posible combinar estos informes en el mismo informe si tiene un conjunto de datos de Power BI diferente para cada sensor. Sin embargo, puede crear un tablero, luego anclar imágenes de estos informes al tablero y compartir el tablero con los usuarios.
Si necesita usar todos los datos de tres sensores en un solo informe, puede envíe datos desde stream analytics a Data Lake y luego use Power BI Desktop para conectarse a Data Lake para crear un informe.
Saludos,
lidia
Wojtek
En respuesta a v-yuezhe-msft
@v-yuezhe-msft
gracias lidia
1.ª solución (pin del salpicadero) – funciona pero NO crea un tablero único con todas las lecturas de los sensores.
Simplemente muestra todos los informes en el tablero de una página (necesita desplazarse para ver otros informes conectados al tablero).
Mi objetivo es tener una página con todos los sensores leyendo en un área pequeña (como podemos hacer con un solo conjunto de datos e informe).
2da solución – Creo firmemente que esta es la solución para mis necesidades.
Aquí tengo falta de conocimiento de «saber hacer».
Mi mensaje de prueba: (JSON) 1er dispositivo
brokers_out = {"messageId": msg_id, "deviceID": "deviceNameFirst", "temp": temp, "co2": co2,}
Mi mensaje de prueba: (JSON) segundo dispositivo
brokers_out = {"messageId": msg_id, "deviceID": "deviceNameSecond", "pressure": pressure}
1. Transmisión de datos de Stream Analytics a Data Lake
SELECCIONE
*
EN
lago de datos de almacenamiento en gdansk
DESDE
iothub
2. Importación de datos de stream analytics a PowerBi
-> en el escritorio de PowerBi
–> Obtener datos/Azure/Almacenamiento de Azure Data Lake –> lo mismo para URL y AL URI : Error «No podemos convertir el valor nulo al tipo Lógico»
–> GetData / Consulta en blanco / Editor avanzado (https://community.powerbi.com/t5/Integrations-with-Files-and/Cannot-get-data-from-Data-Lake-due-to-e.. .– utilizando ADL URI/
Los datos son importados
En la columna «Contenido»
Voy a la carpeta definida en Data Lake Storage: datalakestorage/logs/{year}/{time}
En cada fecha tengo archivos binarios:
Al seleccionar cualquiera, solo tengo una columna y cada mensaje enviado a IoTHub está en una fila separada.
Pero PowerBi «piensa» que todos los datos son cadenas como «presión: 1007.6875», etc., lo que me dificulta la visualización de datos.
Creo firmemente que será: Nombre de columna == presión (del archivo JSON), cada fila == lectura flotante/int del archivo JSON.
Cómo importar un archivo JSON en la misma forma que se envió a IoTHub/ Data Lake
o
Cómo convertir archivos (en PowerBi) para hacer el trabajo.
Gracias por cualquier consejo.
Wojtek
v-yuezhe-msft
En respuesta a Wojtek
@Wojtek,
Haga clic en el botón resaltado para expandir la columna Contenido.
Saludos,
lidia
Wojtek
En respuesta a v-yuezhe-msft
Hola lidia,
Mientras selecciono el botón marcado, puedo ver una sola columna con múltiples raws. Cada fila representa la telemetría de un tiempo específico.
El problema es que solo tengo una columna.
lidia,
1. Estoy enviando desde el dispositivo a Azure IoTHub datos en formato JSON. ¿Tengo que seleccionar también el archivo JSON en Stream Analytics Output (configurado como Fuga de datos)? Supongo que el JSON recibido por Stream Analytics se enviará a PowerBi SIN cambios ni modificaciones. ¿Estoy en lo cierto?
2. Supongamos que el punto n. ° 1 es correcto y tengo un archivo JSON en PowerBi. ¿Cómo puedo analizar el archivo recibido y dividirlo en más columnas?
Al enviar datos de stream analytics directamente a PowerBi (SIN fuga de datos), todo está bien (JSON tiene las mismas «columnas» y «valores»)
Gracias !
v-yuezhe-msft
En respuesta a Wojtek
@Wojtek,
no estoy familiarizado con Análisis de flujo. Siempre que transfiera datos de Stream Analytics al almacén del lago de datos de Azure, puede conectarse al origen de datos del almacén del lago de datos de Azure en Power BI Desktop. ¿Cómo son los datos después de expandir la columna Contenido anterior?
Además, después de conectarse al archivo JSON en Power BI Desktop, aún debe expandir las columnas para extraer datos.
Saludos,
lidia