Inmiddels is mijn script (zie attachment voor de tekstfile) zodanig klaar dat het in combinatie met de gemaakte sensor werkt. Het bleek verreweg het handigste om "sensor lost" of "telemetry lost" te detecteren door voor temperatuur en druk de waarde nul af te keuren.
Waar ik nogal mee heb zitten worstelen en alleen via trial en error heb kunnen oplossen is het verschijnsel dat de telemetrievelden in OpenTX rechtstreeks worden doorgegeven en weergegeven in het telemetriescherm, maar als je diezelfde velden als input wil gebruiken, dan worden ze door OpenTX als 10-bit veld geinterpreteerd, waarbij 1024 dan 100 is.
Bij de binnenkomende temperatuur (Kelvin) en druk (Pascal) moet ik dan met 10.24 vermenigvuldigen, omdat er ook nog een decimale punt bij de LUA output wordt gezet.
Op het scherm van het script zelf ziet het er dan zo uit:
Bij de inputs zet je de custom curve "Sinp" en de twee telemetriesensoren voor temperatuur (1001) en druk (1002)
Aan de rechterkant de outputs, waarbij ik dus de temperatuur en druk in het script moet vermenigvuldigen met 10.24 om de gewenste 297.9 graden Kelvin en 1009.5 HectoPascal in dit scherm te krijgen.
F3 is de correctiefactor t.o.v. het binnenkomende gassignaal. In dit voorbeeld moet er 7,5% van volgas af dus dat wordt een uitslag van 85 (merk op dat van volgas (100) naar idle (-100) een totale servoweg is van 200, dus 7,5% van 200 is 15)
Als iemand, die naar mijn script kijkt, een elegantere manier weet om met die verhaspeling met factor 1.024 om te gaan, dan hoor ik dat graag.