midiola_rendering

finales UI und neue Soundevents

Letzte Woche hat Momo unser UI soweit finalisiert, dass wir nun wissen wie and an welcher Stelle wir unsere Ideen genau umsetzen (  erster Prototyp (nicht funktional) ).
Joscha hat bereits einige der neuen UX-Elemente in unserer App in Code umgesetzt.

midiola_rendering

Aufgrund der immer näher rückenden Deadline mussten wir einige Features einstampfen um uns auf die wichtigeren Aufgaben zu konzentrieren.
So wird etwa eine Runterzieh-Animation vorerst durch ein einfaches Klickereignis ersetzt.

Weiterhin kommt die Liveansicht durch die im mobilen Gerät integrierte Kamera weiter voran. Dabei musste Tom sich einen Algorithmus zum Parsen der Noten überlegen und wie aus diesen Tönen erzeugt werden. Bisher, im statischen Abspielmodus (ohne Kamera, mit den gescannten Bildern), wurden Events ausgesendet sobald eine Note im Abspielbereich erscheint. Diese Events enthielten die Länge der Noten damit diese entsprechend lange  gehalten werden.

Wie Luca aber zurecht bemerkte wird das beim Livemodus  in dieser Form nicht mehr funktionieren. Da nicht die gesamte Rolle mit den gesamten Noten vorliegt sondern immer  nur ein Kameraausschnitt, ist es beim Aussenden eines Notenevents noch nicht klar, wie lang eine Note gehalten werden muss.
Deswegen, werden nun NoteOn() events gesendet, sobald eine Note in den sehr schmalen Kamerascanbereich kommen, und NoteOff() events gesendet, sobald eine Note nicht mehr im Bereich ist.