Sztuczna inteligencja z dużym prawdopodobieństwem zostanie z nami na dłużej. Dlatego każda licząca się na rynku firma w przestrzeni technologicznej powinna rozwijać swoje własne modele AI. Apple idzie własną drogą i na tę chwilę trudno ocenić, czy wybrała ona optymalny kierunek rozwoju. Co popularne jabłko zaprezentuje nam w najbliższej przyszłości?
Program do edycji obrazów
Apple prezentuje nowy model z wykorzystaniem otwartego źródła AI do edycji obrazów, który pokazuje, na co stać tę firmę w przestrzeni technologicznej. Model o nazwie MLLM-Guided Image Editing (MGIE) wykorzystuje multimodalne duże modele językowe (MLLM), aby interpretować polecenia oparte na tekście podczas manipulowania obrazami. Innymi słowy, narzędzie to ma zdolność do edycji zdjęć na podstawie wprowadzonego przez użytkownika tekstu. Choć nie jest to pierwsze narzędzie, które potrafi to zrobić, jak czytamy w artykule na ten temat, „ludzkie instrukcje są czasami zbyt lakoniczne dla obecnych modeli, by je wychwycić i zastosować”.
Apple współpracuje z Uniwersytetem Kalifornijskim
Firma opracowała MGIE we współpracy z badaczami z Uniwersytetu Kalifornijskiego w Santa Barbara. MLLM mają moc przekształcania prostych lub niejednoznacznych poleceń tekstowych na bardziej szczegółowe i klarowne instrukcje, które sam edytor zdjęć może wykonać. Na przykład, jeśli użytkownik chce edytować zdjęcie pizzy pepperoni, aby „zrobić je bardziej zdrową”, MLLM może zinterpretować to jako „dodaj warzywne dodatki” i edytować zdjęcie odpowiednio.
Szybsze przycinanie i zmienianie rozmiarów
Oprócz wprowadzania głównych zmian w obrazach, MGIE może również przycinać, zmieniać rozmiar i obracać zdjęcia, a także poprawiać ich jasność, kontrast i balans kolorów, wszystko za pomocą poleceń tekstowych. Może również edytować konkretne obszary zdjęcia i na przykład zmieniać fryzurę, oczy i ubranie osoby na nim, lub usuwać elementy w tle.
Jak zauważa VentureBeat, Apple udostępniło model za pośrednictwem GitHub, ale zainteresowani mogą również wypróbować demo, które obecnie znajduje się na platformie Hugging Face Spaces. Apple jeszcze nie ogłosiło, czy planuje wykorzystać to, czego nauczy się z tego projektu, do narzędzia lub funkcji, które mogą zostać włączone do któregoś z jego produktów.