A vakok, látássérültek sajnos kénytelenek más érzékszerveikre hagyatkozni a környezetük észlelésében, sokan nagyon jók is ebben, ám egy mozgó járműben, autóban ülve azért igen korlátozottak a lehetőségeik erre.

A Honda USA-beli képviselete rájuk gondolva fogott össze a bostoni Vakok Howe Innovációs Intézetének Perkins Iskolájával, hogy mesterséges intelligencia felhasználásával lehetővé tegye számukra a „nézelődést”.

A Honda Scenic Audio projekt keretében különböző digitális források – internet, érzékelők – adatainak értelmezésével a mesterséges intelligencia szöveges formában továbbítja, mi is látható odakint, az app leírja mondjuk, hogy eső áztatja az út melletti tér betonját, azt, hogy a délutáni nap sugarai megcsillannak a közeli víz felületén, vagy bármi mást.

Az alkalmazás egyelőre béta-fázisban jár, vakokkal és gyengén látókkal foglalkozó USA-beli intézmények visszajelzéseit várják a fejlesztéshez.

„A műszaki kihívást az jelentette, hogy kitaláljuk, hogyan szövegesítsük az USA több mint 4 millió mérföldnyi (6,44 millió km) közútjának leírását. Számítógépes képfeldolgozást, szövegalkotást és írásfelolvasó MI-t alkalmazunk, emellett nyolc különböző adattárból nyerünk információkat valós időben a leírások megalkotásához” – magyarázta Phil Hruska, a Honda USA szakembere a Muse-nak.

A Honda tervezi, hogy a további fejlesztések, revíziók után szélesebb körben is elérhetővé teszi majd a Honda Scenic Audio alkalmazást.