* AI ("Artificial Intelligence") subtitles on Tagalog.com are generated using "Whisper" by OpenAI (the same company that created ChatGPT and DallE2). Results and accuracy may vary.
* The subtitles do include errors occasionally and should only be used as a tool to help with your listening practice.
* You can request this website to create a transcript for a video if one doesn't already exist by clicking the "Request AI Subtitles" button below a video. Transcribing usually takes 30-40% of the length of a video to complete if there are no other videos in
the queue. For example, a 21 minute video will take 7-8 minutes to transcribe.
* Running a super fast cloud GPU server to do these transcriptions does cost money. If you have the desire and financial ability, consider
becoming a patron
to support these video transcriptions, and the other tools and apps built by Tagalog.com
00:00.0
Tama yung binanggit ni Art. Ang tawag doon, shallow fake. Yung mga ini-edit na video, shallow fake ang tawag doon.
00:07.9
So yun ang term? Jerry, wait lang. Yung mga taga-Malacanang, Malacanang mismo nagsabing deep fake. Hindi po mali po kayo. Shallow fake pala ang tamang term, Jerry.
00:18.7
Kasi edited lang ito, hindi ito, ano ang tawag doon, AI.
00:22.0
Kung edited lang. Ay naku na, pumangit na yung signal ni Jerry. Jerry, ulitin mo nga.
00:29.7
Kung edited yun, ang tawag natin, shallow fake. Tapos tawag doon, shallow fake.
00:35.3
Okay. Sige, tuloy mo.
00:38.0
Tapos yun nga, yung machine learning na binanggit ni Art, ang tawag dyan, deep learning. Kaya deep fake. Deep learning plus fake.
00:44.9
Yun ang term niya kung bakit nakuha yung salitang deep fake.
00:50.4
Now, in as far as the tip is concerned,
00:52.0
ayon sa mga AI experts, yung mga gumagawa ng ganyan, para daw matuntun natin kung totoo ba ito o hindi,
01:00.3
pang unang-una daw, yung mga AI generated videos, walang facial expression. Yan ang unang-una.
01:09.1
Mahirap daw nila magaya yung facial expression. Walang emosyon yung mga video nila. Okay? That's number one.
01:17.2
Number two, tignan daw natin yung shape ng face.
01:22.0
Hala. Hala, nag-freeze na si Jerry.
01:29.9
Jerry, okay. Yan, yan, yan. Pampangit yung signal mo. Ano yung naputol ka doon sa shape ng face, sabi mo?
01:36.4
Oo, yun. Hirap sila doon. Sa figura ng muka, hindi nila magaya perfecto.
01:43.5
Okay ba yun? Narinig niyo po ba?
01:47.3
Tapos, pangatlo, yung tinga.
01:50.6
Yung tinga? Ano daw?
01:53.0
Yung alin, Jerry?
01:54.8
Tapos, tignan daw niyo yung tinga.
01:56.4
Hindi, yung tinga. Yes.
01:58.7
Ano meron sa tinga, Kamu?
02:01.3
Ano meron sa tinga, Jerry?
02:07.6
Patuloy mo na muna si Jerry.
02:10.7
Pasaluhin mo nga art. Ano sabi mo art yun sa tinga daw? Ano nga nung sa tinga?
02:15.4
Ano dapat namin tignan?
02:16.6
So, yung tinga minsan, isa yan sa mga indicator na makikita.
02:22.0
Ano nangyayari mo yung...
02:23.0
Na fake yung video, deep fake yung video.
02:25.8
Kasi yung machine learning, lalo na pagkulang ka sa konti yung sample.
02:30.6
Kasi kailangan mo ng malaking sample.
02:33.0
Halimbawa, ikaw, Alvin, lagi ka nakikita.
02:35.0
So, na-analyze yung Alvin.
02:38.7
Oo, ayan na. Naririnig ka na namin, Jerry.
02:41.3
Ano ka mo yung sa tinga?
02:48.9
Ay, sayang naman.
02:49.8
Ituloy mo nga ito, Kamil, sa ibang mong programa.
02:52.0
Maganda itong mga ganitong tips, oh.
02:54.3
Ayan, ayan, ayan. Jerry, ituloy mo nga yung tinga.
02:57.6
Sabi nung mga gumagawa ng AI, hindi nila maperpekto yung tinga ng ginagaya nila.
03:04.0
So, kung tayo nanonood, tignan mo yung tinga kung nagagaya, kung pareho.
03:11.1
Tapos, ang sinasabi nilang isa pang pwede natin gawin,
03:14.8
kasi Alvin Doris, ang problema natin, pag nanonood tayo ng video ngayon,
03:18.2
sa mobile phone tayo nanonood, ang liit ng screen.
03:21.9
Kaya, kala mo, ang linaw-linaw ng video na pinapanood mo.
03:26.1
So, kung, if let's say, medyo nagdududa ka,
03:30.5
panoorin mo daw ito sa malaking screen.
03:33.2
You watch it on a bigger screen and you will see.
03:36.8
O, pagka malaking screen.
03:38.3
Magpipixelize. Magpipixelize yung itsura niya.
03:41.6
Para makita mo kung totoo ito o hindi.
03:44.7
Tapos, last but not the least, sabi nila,
03:48.0
mag-iingat daw tayo lalong-lalo na kung ang mga paksa na pinag-uusap,
03:51.9
handapang ay sensitibo.
03:54.8
Mag-isip-isip daw tayo katulad na nangyari sa ating Pangulo.
03:58.2
Yung sinabi niya, very sensitive yun.
04:00.5
Huwag daw tayo basta-basta maniniwala.
04:03.2
So, kung tinignan mo, talagang the common sense,
04:05.7
our common sense will come into play when it comes to this kind of fake videos.
04:11.5
So, Art, may naiwan ka pa bang tip dyan?
04:13.7
Art, alam mo, nakakatakot dito.
04:15.3
Parang mag-i-election next year.
04:17.0
Saan ka there ba yung lalabas ng mga fake news and shallow fake?
04:23.3
Sa Amerika, meron ng 14 states
04:25.9
na nagpasa ng batas laban
04:27.8
sa paggamit ng deepfake sa election.
04:31.6
ginawa nila, pinagbawala na
04:34.3
social media platforms
04:37.1
na magbigay o na gumamit ng mga
04:39.6
celebrities para dun sa mga
04:41.2
endorsement gaya na nangyayari kay
04:43.3
Ding Dong Dantes, kay
04:47.3
na ginagamit ng pamimike. So, bawal
04:49.6
na pag ginawa yun ng mga
04:50.9
social media platforms sa
04:53.3
Australia. Dapat ang Pilipinas,
04:55.3
kasi mag-eelection na, eto na,
04:57.3
dapat gumawa na din ng regulations
04:59.4
tungkol dito na pagbawalan yung mga
05:01.4
social media platforms. Kasi,
05:03.3
sa kanila kumakala itong mga
05:11.1
misinformation. Pero,
05:13.4
ang pinakamahalagang tip dito,
05:16.2
dapat pag nakakita
05:17.3
kayo ng ganito, mag-double source
05:19.3
yung mga tao dapat. Anong ibig
05:20.9
sabihin ng double source?
05:22.6
Pag nakita nila na may nagpost, hanapin nila
05:24.9
sa iba kung may nagpost na iba. At ang
05:26.7
pinakamabuting second source
05:28.8
natin dito, yung mainstream media
05:30.7
natin. Kasi, pag nilagay sa
05:32.7
mainstream media, ibig sabihin na verified
05:34.8
ito. Ibig sabihin na checked ito.
05:36.7
Manavet ito ng ayos. Hindi lang ito
05:38.6
basta-basta pinadala o pinakita