Un par de cosas que me parece interesante comentar:
1) Sobre el tema de los famosos "parpadeos". No son tales, sino que esos "pulsos" corresponden a cada bloque de compresión de H264/HEVC. A la hora de comprimir material, existen unos bloques denominados IPB, que definen cada cuantos fotogramas se debe crear un fotograma "madre", del que luego se extraen el resto de fotogramas (dicho todo así un poco recortado). Debido a la naturaleza de la compresión, es posible ver esos "pulsos" incluso en DVD o Bluray. Más en DVD, por la poca compresión que tienen, y por supuesto en Streaming, donde se pueden producir (yo alguna vez los he visto cuando la señal ha bajado de calidad).
Lo que sucede es que obviamente al tener los IRE cercanos a negro más levantados de lo que deberían, pues estos se ven, y se aprecian esos flashes. Es decir, los flashes no son producto del televisor, sino del material de origen. Es el televisor el que los acentúa (la razón por la cual lo hace es lo que hay que determinar).
Yo que llevo más de 20 años ligado al audiovisual y empecé editando vídeos profesionalmente bajo el extinto codec Cinepak a 320x240, se perfectamente cuando hay cosas relacionadas con codec y cosas relacionada con panel. Y aquí se juntan las dos.
Lo digo porque LG puede tratar de salirse con la suya diciendo que es la fuente, que está mal. Y es correcto en parte. Ellos saben (y si no lo saben entonces tienen un problema con ese ingeniero) que una imagen comprimida exhibe macrobloques y todo tipo de artefactos ligados a la compresión, que algunos se ven y otros no. Donde dan largas o pretenden hacerlo es en el tema de los negros que no están en el nivel donde deben estar. Ahí es donde hay que batallar. No me vale que un ingeniero de ellos evalúe fotos realizadas con un móvil. Que venga y vea el panel y le diga a esa persona que se ha gastado sus cuartos delane de ella que el panel está "correcto".
2) Prácticamente TODOS los televisores actuales, cuesten 200 o 15.000€, tienen Ethernet 100mb como máximo. Esto NO debería ser problema incluso con los famosos backups que circulan por ahí de películas UHD, que de media rondan los 50GB, pues el bitrate máximo de éstas rondan los 100mb. PUEDE darse el caso de alguna película codificada al límite que pueda dar problemas, por buffer o cualquier cosa. ¿Que los televisores deberían llevar tarjetas Ethernet de 1Gbps?. Pues sí, no digo que no. Pero abaratan costes y toman decisiones de este estilo basados en sus experiencias. Y es que HASTA HOY, nadie ha necesitado nunca transferencias mayores de 100mb/sec a nivel de bitrate bajo Ethernet en un televisor.
La solución es usar la red Wifi 5Ghz, pero el problema es que ésta fluctúa al ser más potente pero llegar menos (y se pueden producir saturaciones de red por otros usuarios del mismo canal cercanos a nosotros. Personalmente nunca me ha gustado usar redes Wifi para reproducir archivos grandes porque las papeletas que uno puede tener para tener cortes son mayores, pero hay casos y casos.