Prosjektet har primært fokusert på dataprosessering av bildedata fra radarer og kameraer, for å kunne detektere og følge objekter i sanntid som befinner seg rundt hele skipet (360 grader). For deteksjon og klassifisering av objekter har maskinlæringsalgoritmer blitt brukt. Deteksjonen har så blitt ekstrahert og benyttet til å kunne følge objekter på sjøoverflaten, og dermed bidra til bedre situasjonsforståelse.
For å øke robustheten til sensorplattformen er det blitt utviklet nye metoder for sensorkalibrering, bedre sensormodeller, samt håndtering av feildeteksjoner og for at objekter kan være midlertidig ute av syne (f.eks. bak en øy). I løpet av prosjektet har det også blitt utført feltstudier på både ferge og større skip for å kartlegge hvilken informasjon brukeren tar i bruk som beslutningsgrunnlag for navigering. Feltstudiet viste at brukeren bruker både syn, kamera og informasjon fra ulike navigasjonshjelpemidler avhengig av type operasjon og om det skjer i lys eller mørke. Basert på intervjuer med kapteiner og navigatører ble det utviklet konsepter for god brukerinteraksjon som kan brukes som underlag for utvikling av fjernstyrte skip.