#discobot
Explore tagged Tumblr posts
vampirevitals · 1 year ago
Text
Tumblr media
a sequel no one asked for ❤️
Tumblr media
i don’t know how to explain this. wayne static sonny angel.
11 notes · View notes
silverview · 7 months ago
Text
years ago i decided to draw a group picture of every marscorp character, & today i finally finished !!!
it's not every named character, but it's all the main ones + some of my favourite minor ones. over fifty of them!!! wow this show has too many characters!!!
Tumblr media
standing on the main row, left to right: mal, grimaldi & alice, marjorie, dr yun, lawrence, jonathan, george, angelica, jo, simon, baxter (martin on his screen), hob (adam in her thought bubble), jim, bonnie, dawn (steve popping out from behind), eric, donna, the black sheep, alberich (flanked by clay & baines), brian (in the wheelchair), john smith/kallo (behind), dan, max, bernard
on the floor, left to right: jess, chip, tom, dave, hayley, bertie & brenda, a benefactor
riding patrick, left to right: colin & david :)
being consumed by the comfort buddy, clockwise from bottom left: raj, rebhi, discobot, anika & christopher, mouser (looking at the box), johari, eduardo, aaaaand carol!
6 notes · View notes
androphagos-mardyakhowra · 1 year ago
Text
The Great Grand Library's 2023 Record
I decided to look back upon all the fics I read in 2023 and compiled them into a list.
Format: Score/10: Title [Author] [Fandom] [Misc].
The scores are a snappy enumeration of my personal rating system. 2/10 means I read for some amount before putting it on hold and theoretically might someday give it another shot but eh, 4/10 means I'm much more likely to give it another shot, 6/10 means I read through all the chapters that was there at the time and enjoyed my time aplenty, 8/10 means I enjoyed it even more, and 10/10 means I enjoyed it so much they're a contender for being among my favorite fics of all time.
Only a small percentage of what are 2/10 are included in this list, so this list isn't bloated by fics that my feelings about are mostly summarised as "eh". Consider them a honorable mentions.
If it's not a fanfic but instead an original work, it will use [Original].
Misc tags: [SI] Self-Insert, [Multi-SI] Multiple Self-Inserts, [FI] Friend-Insert, [OC] Original Character, [Crossover] Crossover which expands as the work goes on, [NSFW] Probably something I got from QuestionableQuesting, [<100k] Less than 100k words long.
If you find anything wrong with the list, like wrong links or a typo somewhere, feel free to let me know.
January
(n/a)
February
6/10: A PMC for you and me [Spent Casings] [RWBY] [SI]
6/10: A shot in the dark [SthUnlim] [Yugioh GX] [SI] [<100k]
6/10: To Answer [Luckychaos] [FFXIV] [FI]
6/10: Voyance [lpofdestiny] [Miraculous Ladybug] [OC]
6/10: The Dungeon Without a System [StrangerDanger51] [Original]
4/10: A Champion in Earth Bet [sun tzu] [Worm] [OC]
March
10/10: Goblin Cave [xaphiriron] [Original]
10/10: Idiosyncrasy [OCfan11] [FE3H] [OC]
10/10: The Most Evil Trainer [Wisetypewriter] [Pokemon] [SI]
8/10: Acting as the love advisor to the big damn (simp) hero [Naqu2o] [Original]
6/10: Self-Replicating Drone Armada, Used [SparraNova] [Starsector] [SI] [Crossover]
6/10: The Divine Hunter [隐约点] [Witcher 3] [SI]
4/10: Tainted Steel [The Distorted Shadow] [FSN] [Tsukihime]
4/10: Terrible, Yes, but Great [Procrastination] [FSN] [Tsukihime] [NSFW]
4/10: Hyperdungeon Neptunia: Mines of Nepvelder [Sedori] [Hyperdimension Neptunia] [D&D]
4/10: cyanide narwhal [TrashcanWithSprinkles] [Genshin Impact]
April
10/10: Fivefold Integration [Kyreneryk] [Worm] [Stormlight Archive] [Steven Universe] [Mother of Learning] [Mistborn]
8/10: A Frog Out Of Water [leaves] [Yugioh GX] [SI]
6/10: H U N G E R [Angel of Shadows] [Kancolle] [SI]
4/10: Violent Solutions [Sabaoth] [Original]
4/10: POISON [BrunofanofK] [Naruto] [SI]
4/10: Cat of the Fellowship [Mimi_Lind] [LotR] [SI]
4/10: Warrior of the Void [Hastar] [FFXIV] [SI]
May
8/10: Back and Forth [TryingItOut] [Worm]
8/10: Apocalypse Reborn [Sage_Of_Eyes] [Original]
6/10: Eternal Shrine Maiden [BeiYang] [Touhou] [MCU]
4/10: Godclads [OstensibleMammal] [Original]
4/10: In Nuclear Fire [Poliamida] [Worm] [SI]
June
10/10: Gacha God [Ideas-Guy] [MCU] [OC]
10/10: Leaf [Slavok] [Worm] [Stormlight Archive]
8/10: A Dead World [Laluzi] [Prototype] [Fallout]
6/10: I have a Plan [DiSCOBOT] [Worm] [SI]
6/10: A Hard Knock Life [Ideas-Guy] [Worm] [Cyberpunk 2077]
2/10: Worm Quest [BreezyWheeze] [Worm]
July
6/10: Shogunai - An Ignoramus SI in Naruto [industrious] [Naruto] [SI]
6/10: The Young Lady is a Reborn Assassin [DWS] [Original]
6/10: Big Brain in the Dungeon [KinKrow] [Danmachi] [SI] [NSFW]
6/10: It Started With a Nightmare [Pro-man] [Gundam UC] [SI]
4/10: I Reap Souls In My Spare Time [Saintbarbido] [DC] [Bleach] [OC]
4/10: Jackal Among Snakes [Nemorosus] [Original]
August
6/10: Metal Marine [Pentel123] [One Piece] [SI]
6/10: Forever is a long time coming [La Pucelle Altre] [Transformers] [MCU] [SI] [<100k]
4/10: Yugioh: New Duelists X [DSComeback] [Yugioh GX] [OC]
September
8/10: Exalted in Passing [luckychaos] [FGO] [FE: Awakening] [Multi-SI]
6/10: A Young Girl's Game of Thrones [Failninja] [Youjo Senki] [GoT]
6/10: A Gamer In South Blue [LordVishnu] [One Piece] [SI]
2/10: Four Heroes Walk into an Adventure [QuartzScale] [FSN] [FGO] [Danmachi]
October
8/10: Legends Never Die [Ideas-Guy] [Crusader Kings III]
6/10: Sublight Drive [miraage1] [Star Wars] [SI]
6/10: A Young Woman's Alchemy [CheshireTwilight] [Youjo Senki] [FMA]
6/10: Serial Meddling [eredinremendis] [RWBY] [AdventureQuest Worlds]
6/10: The Hound of Central Academy [Zap C. Cannon] [Yugioh GX] [SI]
4/10: A Young Reaper's Aferlife [L4 of the WEST] [Youjo Senki] [Bleach]
4/10: Far From Home [Erithemaeus] [Honkai: Star Rail] [FI]
2/10: Voyages of the Wild Sea Horse [VoidWanderer] [Ranma] [One Piece]
November
6/10: Count of Serenno [Y1ofthePlebs] [Youjo Senki] [Star Wars]
6/10: From Shadows [A Numerical List of Candy] [Naruto] [SI]
4/10: Gone Native: Earth Saga [Ideas-Guy] [DBZ] [DC] [OC]
4/10: Unfortunately, I'm not a Hero [Sage_Of_Eyes] [Oregairu] [MGE]
4/10: It's An Abyss, not bottomless [DisgruntledJaeger] [Kancolle] [SI]
2/10: My Trans-Dimensional, Overpowered Protagonist, Harem Comedy is Wrong, as Expected. [Sage_Of_Eyes] [Oregairu] [Danmachi]
December
8/10: A Young Woman's Political Record [jacobk] [Youjo Senki]
6/10: The Pixie of the Hidden Leaf [Dakion] [Youjo Senki] [Naruto]
6/10: Path of the Immeasurable Swarm [derivativeoflife] [Worm] [Cradle]
6/10: To Kill a Bull [Discoabc] [Naruto] [SI]
4/10: Radiant Rebirth [Naron] [Hollow Knight] [RWBY]
4/10: Would that I were born no Princess [Watchinkid] [Youjo Senki] [FFT:WoTL]
2/10: Detachment [Ghep] [FE: Awakening] [SI]
0 notes
lickingyellowpaint · 2 years ago
Text
the silliest speaker that ever there was
3 notes · View notes
hopefulrefrain · 7 years ago
Text
accidentally befriends the void: just carly playing roleplaying games things
49 notes · View notes
cyber-zombiee · 7 years ago
Photo
Tumblr media
good lord
first of all, im sorry, @personal-assery and i are running a Ratchet and Clank meme page on tumblr which is has been p stagnant recently so yano, time to fill that void (also give it a look we’ve got some dank shit on there lmao)
second of all, House of Synth is godly!! need dem space beats omf~ <3
third of all, dont kill me im still new to ratchet and clank, having never really played the games because i never got the chance to play lmao
1 note · View note
diefischrakete · 8 years ago
Photo
Tumblr media
1 note · View note
jvr-rams · 2 years ago
Photo
Tumblr media
My newest release based on a story of the following event: “The Kidnapping of Daft Punk”. Full Story (Source Wundergroundmusic): French House duo Daft Punk have been found safe and unharmed in the basement of Nile Rodgers‘ Beverly Hills mansion. Guy-Manuel de Homem-Christo and Thomas Bangalter (Daft Punk) are said to have been held against their will, by Rodgers, for over two years. Mr. Homem-Christo spoke today, for the first time, about his traumatic ordeal. “We had a meeting with Rodgers in May 2011, he wanted to discuss the possibility of releasing a disco album with us. We refused point blank, we really wanted to make something new and not go backwards, we’ve tried to do that with all our albums. Rodgers was furious when we turned him down, he stormed off and the next thing we knew we were being bundled into the back of a van.” Mr. Bangalter also opened up about the Kidnapping, “He didn’t hurt us but we were tied up and left in Darkness, it was horrible. We had no idea how long we were down there. The only contact we had with anyone was when we were given food and water.” The discovery was made after city workers accessed Mr. Rodgers’ house, while he was on tour, in search of the source of a gas leak. Chad Norris, a gas technician, spoke of his grim finding, “I went into the basement and the first thing that hit me was the smell. These poor guys had been living in their own piss and shit for two years, I’ve never seen anything like it. I called the cops straight away.” Upon searching the house, the LAPD also found a sophisticated crime lab, which contained the blueprints for two life sized Daft Punk Discobot Cyborgs. They now believe that Rodgers replaced the original Daft Punk with these disco loving cyborgs in order to record the album Random Access Memmories. Daft Punk are said to deeply upset after hearing the album, in particular the song Get Lucky, and plan on having it removed from existence as soon as possible. Rodgers and the Discobots are still at large and police say they should be treated with extreme caution. ———————- By: Wundergroundmusic #daftpunk #daftpunkhelmet #daftpunktribute #daftpunkforever #daftpunkmusic (at Westport, Connecticut) https://www.instagram.com/p/CiVGowns-dV/?igshid=NGJjMDIxMWI=
1 note · View note
ejlandsman · 7 years ago
Photo
Tumblr media
A little floral memento mori for @discobot 🌺🌸🌼💀
28 notes · View notes
nguyenxuanhuyceo · 5 years ago
Text
Robots.txt là gì? Cách cấu hình và tạo Robots.txt
File Robots.txt là gì? Chức năng của Robots.txt
Robots.txt là một file do webmaster (người quản trị web) tạo ra với mục đích hướng dẫn các web robots (thường là các bot của công cụ tìm kiếm như Google) về cách thu thập dữ liệu của họ. File Robots.txt là một phần của giao thức loại trừ robot (REP – Robots Exclusion Protocol), một nhóm các tiêu chuẩn web quy định về cách robot thu thập dữ liệu trên web, truy cập và index (lập chỉ mục web) nội dung cho người dùng.
Robots.txt cũng bao gồm chức năng của thẻ meta robots khi xử lý 1 page như follow hay nofollow.
Tuy nhiên tệp tin này mạnh mẽ hơn meta robots do file Robots.txt có thể cho phép hoặc chặn việc thu thập dữ liệu web từ một tác nhân nào đó không phải con người. Ví dụ như bot từ các phần mềm copy web hay các trang thống kê (analytics).
Một số cú pháp cơ bản của file Robots.txt
Cú pháp cơ bản
User-agent: [tên user-agent] Disallow: [URL page cần chặn không cho robots thu thập dữ liệu]
Với 2 dòng code này file Robots.txt có thể coi là hoàn chỉnh và có thể sử dụng. Mình tạm gọi 2 dòng code này là 1 khối lệnh. Tuy nhiên một file robots.txt có thể có nhiều hơn 2 dòng code như này, tùy thuộc vào mục đích sử dụng.
Ví dụ chặn bot ahrefs nhưng lại cho các bot khác thu thập dữ liệu từ website (allow, disallow, crawl-delays…).
Trong 1 file, nếu bạn điều hướng nhiều hơn 1 loại user agent hoặc nhiều quy tắc như allow, disallow thì bạn cần phải dùng nhiều hơn 1 khối lệnh bên trên. Mỗi khối lệnh trong robots.txt sẽ được ngăn cách với nhau bởi dấu xuống dòng.
Hãy xem ví dụ dưới đây:
Tumblr media
Robots.txt của Buzzfeed.com
Như ta thấy, ở đây webmaster đã quy định các bot có tên cụ thể như msnbot, slurp, discobot được phép (allow) và không được phép (disallow) thu thập dữ liệu ở đâu. Tất cả các bot khác sẽ tuân thủ theo quy tắc bởi user agent *.
Dấu * ở đây có nghĩa là tất cả.
Ví dụ về file Robots.txt
Ở đây tôi sẽ lấy ví dụ về tạo file robots,txt cho website http://example.com/
Đường link đến file robots.txt sẽ là: http://example.com/robots.txt
Ví dụ tôi muốn chặn tất cả các bot thu thập dữ liệu tại tất cả các page.
User-agent: * Disallow: /
Nếu tôi muốn chặn tất cả các bot thu thập dữ liệu chỉ ở 1 số page nhạy cảm của tôi, ví dụ như các trang admin. Tôi sẽ làm như sau.
User-agent: * Disallow: /admin/*
Vẫn ví dụ trên, tuy nhiên lần này tôi sẽ chặn tất cả các bot vào mục admin và chặn bot Ahrefs không cho bot này quét dữ liệu web.
User-agent: * Disallow: /admin/* User-agent: AhrefsBot Disallow: /
Nâng cao hơn 1 chút ở, như ví dụ trên nhưng tôi muốn chặn bot truy cập vào 1 số file nhạy cảm trên máy chủ của tôi. Ở đây tôi tạm gọi là file private.pdf được đặt trong mục documents.
User-agent: * Disallow: /admin/* Disallow: /documents/private.pdf User-agent: AhrefsBot Disallow: /
Các cỗ máy tìm kiếm có 2 nhiệm vụ chính:
Index – lập chỉ mục tất cả các bài viết của website để nó có thể phục vụ người dùng.
Thu thập dữ liệu trong các web page để xếp hạng cho liên kết đó.
Các máy chủ tìm kiếm này thu thập dữ liệu bằng các con bot hay bọ tìm kiếm. Như trong ví dụ bên trên là chúng ta đang gọi tên các con bot của công cụ tìm kiếm để chỉ dẫn chúng vào web của chúng ta.
Các bot này di chuyển từ web page này sang page khác thông qua các link. Link ở đây có nghĩa là cả liên kết nội bộ trong web và link out ra web khác. Cứ như vậy các con bot này sẽ thu thập dữ liệu của tỷ tỷ các web page khác nhau.
Cách thu thập dữ liệu này ở nước ngoài đôi khi người ta gọi là Spidering.
Mỗi con bot khi vào trong website đều sẽ phải đọc qua file robots.txt trước khi thu thập dữ liệu. Nếu nó đọc đưuọc các quy tắc trong file và thấy các quy tắc này đang áp dụng cho nó, nó sẽ tuân thủ theo để thu thập dữ liệu.
Nếu nội dung file robots.txt trống, không tồn tại hoặc không có quy tắc nào áp dụng cho bot. Bot sẽ quét toàn bộ dữ liệu trên website của bạn.
Một số kiến thức khác về Robots.txt
Tệp robots.txt phải được đặt ở cấp cao nhất trong thư mục website (thư mục gốc). Trong Cpanel thường sẽ là thư mục public_html.
Tên file có phân biệt chữ in hoa, in thường. Vì vậy bạn phải đặt tên file là robots.txt chứ không phải Robots.txt hay robots.TXT.
Không phải các con bot đều đọc file robots.txt và tuân thủ theo quy tắc trong file này. Hầu hết trong số đó đều là các bot gián điệp và thu thập dữ liệu bất chính như thu thập email khách hàng.
Các sub-domain sử dụng file robots.txt riêng biệt, không sử dụng chung file robots.txt với domain gốc. Ví dụ seohoaphuong.com/robots.txt và hotro.seohoaphuong.com/robots.txt sẽ là 2 file khác nhau.
Robots.txt là cách tốt nhất để bạn điều hướng bot đến sơ đồ trang web (sitemap.xml). Bạn có thể khai báo link sitemap của website trong file robots.txt. Ví dụ như sau:
User-agent:* Allow:/ Sitemap: https://seohoaphuong.com/sitemap_index.html
Các cú pháp trong robots.txt
Robots.txt có các cú pháp và ngôn ngữ riêng của nó, giúp các bot tìm kiếm có thể hiểu được. Có 5 cú pháp phổ biến được dùng trong file robots.txt đó là:
User-agent: chỉ định một web bot cụ thể được phép làm gì và không được phép làm gì. Hiện theo chúng tôi thống kê có 302 user agent bot phổ biến, tất cả tên của user agent này đều được tổng hợp tại đây.
Disallow: không cho phép web bot truy cập vào các liên kết chỉ định.
Allow: cho phép web bot thu thập dữ liệu ở các liên kết chỉ định. Cú pháp này chỉ áp dụng cho GoogleBot.
Crawl-delay: thiết lập thời gian bot phải đợi bao nhiêu giây mới được phép thu thập dữ liệu trang. Hiện tại GoogleBot không chấp nhận lệnh này. Tuy nhiên Google cho phép người dùng thiết lập tốc độ thu thập dữ liệu trong Webmaster Tool.
Sitemap: khai báo link sitemap cho các web bot. Mỗi sitemap sẽ là một lệnh khác nhau, phân biệt với nhau bằng cách xuống dòng. Cú pháp này chỉ áp dụng cho các bot Google, Bing, Yahoo và Ask.
Các biểu thức chính quy trong robots.txt
Khi thực hiện các quy tắc chặn (disallow) hoặc cho phép (allow) từng URL riêng biệt trong file robots.txt có thể rất mất thời gian. Vì mỗi website sẽ có đến hàng chục nghìn thậm chí hàng triệu link.
Chính vì thế Google và Bing đã thêm các biểu thức chính quy (pattern-matching) vào robots.txt. Việc này có thể giúp bạn chọn hàng loạt các đối tượng để áp dụng 1 quy tắc cụ thể nào đó.
Hiện có 2 quy tắc chính quy như sau:
* đại diện cho bất kỳ chuỗi ký tự nào
$ đại diện cho ký tự đứng cuối url
Ví dụ chặn tất cả các web bot, ta không nhất thiết phải gọi tên đủ 302 con web bot mà chỉ cần 2 dòng ngắn gọn.
User-agent: * Disallow: /
Hoặc khi tôi muốn chặn thu thập dữ liệu các file PDF trong thư mục uploads. Vì các file PDF có đuôi .pdf nên tôi sẽ sử dụng thêm biểu thức $. Nó sẽ trông như sau:
User-agent: * Disallow: /uploads/*.pdf$
Bạn có thể đọc thêm một số quy tắc, cú pháp của robots.txt mà Google quy định tại đây.
Robots.txt ở đâu trên thư mục web?
Như tôi đã nói ở trên, mỗi khi vào website của bạn hầu hết các web bot (như Facebook bot) đều sẽ đi tìm file robots.txt để xem các quy tắc về thu thập dữ liệu. Tuy nhiên, chúng sẽ không lùng sục khắp website của bạn để tìm kiếm file này.
Hầu hết các web bot đều mặc định tìm kiếm file robots.txt tại thư mục gốc của website https://ift.tt/1aVBRmY. Nếu không tìm thấy tệp tại đấy nó sẽ coi như website của bạn không có robots.txt. Và nó sẽ bắt đầu tiến hành thu thập dữ liệu trên toàn website.
Ngay cả khi bạn tạo 1 file robots.txt nhưng lại đặt ở trong 1 thư mục con của website. Ví dụ như https://ift.tt/3caqGIQ thì nó cũng được coi như là không tồn tại. Các web bot vẫn xử lý như không có tệp tin này trên server.
Vì vậy, để đảm bảo các web bot có thể tìm thấy tệp tin này, hãy đặt nó tại thư mục gốc (root folder) của website.
Tại sao bạn cần file robots.txt?
Robots.txt giúp bạn kiểm soát truy cập đến một số khu vực nhất định trên website của bạn. Mặc dù điều này đôi khi rất nguy hiểm nếu chẳng may bạn chặn bot của Google. Nếu chặn nhầm phải bot của Google có thể website của bạn sẽ không được index.
Một số trường hợp sử dụng robots.txt phổ biến như sau:
Ngăn chặn trùng lặp nội dung xuất hiện trong kết quả tìm kiếm. Ví dụ có 2 link seo về từ khóa dịch vụ SEO, có lẽ bạn nên cân nhắc chặn 1 trong 2. Tuy nhiên, thông thường chúng tôi làm việc này thông qua tag meta robots.
Ngăn cho toàn bộ website của bạn không index trên Google. Điều này xảy ra khi bạn thực hiện thay đổi cấu trúc hoặc giao diện website trên database cũ, tại một sub-domain tạm thời. Nhóm kỹ thuật sẽ muốn các bot không vào link này để dò dữ liệu vì có thể gây nên tình trạng trùng lặp nội dung với website đang chạy.
Chặn các trang tìm kiếm nội bộ của website không có trên kết quả tìm kiếm.
Ngăn công cụ tìm kiếm truy cập đến file có các đuôi được xác định như .pdf, .docs, .gif…vì đôi khi chúng ta các file tài liệu của doanh nghiệp.
Cho phép thiết lập độ trễ (crawl-delay) khi bot đến thu thập dữ liệu, việc này có thể giúp website của bạn tránh bị quá tải.
Nếu không có khu vực nào cần h���n chế truy cập trên website bạn có thể không cần file robots.txt.
Kiểm tra web có file robots.txt không như nào?
Để kiểm tra website có robots.txt hay không cách đơn giản nhất là gõ lên trình duyệt tên miền của bạn kèm với /robots.txt.
Ví dụ như seohoaphuong sẽ là https://ift.tt/393MZ0F
Nếu có file robots.txt, trình duyệt sẽ hiển thị nội dung của file. Trường hợp ngược lại hệ thống sẽ báo lỗi 404. Lúc này bạn sẽ cần phải tạo file robots.txt cho website của mình.
Tạo file robots.txt như nào?
Nếu website của bạn không có file robots.txt hoặc bạn thấy file của bạn chưa ổn cần sửa lại thì việc tạo 1 tệp mới vô cùng đơn giản.
Bạn có thể xem cách Google hướng dẫn tạo file robots.txt trong bài viết này. Bạn cũng có thể kiểm tra xem file robots.txt của mình đang đúng chưa bằng cách truy cập vào công cụ này và submit file robots.txt của mình lên.
Với các bạn đang sử dụng website WordPress chúng tôi sẽ có một bài hướng dẫn tạo robots.txt trên WordPress riêng. Ở bài viết này chúng tôi sẽ dừng ở đây để tránh làm loãng kiến thức bài viết.
Sự khác nhau giữa robots.txt và meta robot vs x-robot
Có đến 3 loại robots, tuy nhiên thực tế chúng khác nhau khá nhiều. Đầu tiên robots.txt là một tệp tin trong khi đó meta robot và x-robot chỉ là các html tag.
Sự khác biệt lớn nhất đó là robots.txt có thể kiểm soát thu thập dữ liệu ở cấp độ toàn bộ website, thư mục hoặc 1 loại tệp tin cụ thể. Trong khi meta robot và x-robot chỉ có thể kiểm soát ở cấp độ web page, nơi mà được nhúng tag này mà thôi.
Như vậy là bạn đã học thêm được rất nhiều kiến thức SEO mới trong bài viết này. Đừng quên chia sẻ bài viết cho SEOHoaPhuong và đón đọc các bài viết tiếp theo trên website của chúng tôi.
Bài viết Robots.txt là gì? Cách cấu hình và tạo Robots.txt đã xuất hiện đầu tiên vào ngày seohoaphuong.
source https://seohoaphuong.com/robots-txt/
0 notes
silverview · 8 months ago
Text
wait also i have thoughts about e3 (world factory). thoughts ive had before many times, like the fact that it’s so cute how excited david gets about seeing trees, and it’s so cute how he crunches that biscuit at the end. or the scene i’d completely forgotten about, where the others pin him down and literally just beat the shit out of him while he’s bleating in pain. like what’s going on with these guys for real. stop stop he’s already woobified! tom punches him in the face, like a legend. e3 also gives us raj, who has to go up there with rebhi for greatest contribution made in a single episode. rip in pieces 💚
i feel the need to continue over-analysing the monsters/threats through a qbbs lens, and in this case, we can start by noting that they’re continuing to get more ‘recent’ – that is, e1’s monster has its roots solidly before the incident, e2’s started just before the incident, and now in e3, the disaster at the world factory happened sometime after the incident. so as david moves out of the past and closer to confronting his present reality, we’re slowly catching up towards facing problems/threats rooted in the present day. (it’s going to be slightly harder to apply this lens to some of the later episodes, especially e4/myip,* as they move away from the monster of the week format. but that in itself is, i think, part of the meta story – as the types of problems/threats evolve and become more complicated.) (i mean, colin himself is literally going to be the monster of the week in e6 which i feel like is going to support my argument pretty strongly.)
and the other thing to note about the world factory in this light is something david says himself – that yes, when the factory manager (the one hob relates to so deeply 👀) released those creepy plant-things, she got everyone killed. but in the aftermath, the plants adapted to become incredibly useful. so. confident saying there’s a parallel there, in the episode where hob first lets david out of his cell.
*if there is a colin analogy in e4, it’s discobot, who everybody missed so much but kinda hated when he came back.
2 notes · View notes
spectrum3847 · 7 years ago
Photo
Tumblr media
Awesome setup at Comicpalooza 2018. Demoing our FIRST Robotics Competition and VEX Robotics robots along with DiscoBots and Pearadox - FIRST Robotics Competition Team 5414 https://ift.tt/2Jd1OnZ
0 notes
hopefulrefrain · 7 years ago
Photo
Tumblr media Tumblr media
a variety of Melika expressions, all of which indicate the true fact that she is having a Very Bad Day
4 notes · View notes
diefischrakete · 8 years ago
Photo
Tumblr media
1 note · View note
escenaindiecolombia · 12 years ago
Text
Agenda local: DISCOBOT,los androides con bailes eléctricos!
Tumblr media
¿Sueñan los androides con bailes eléctricos? Queremos rendirle tributo a lo mejor del sci-fi con nu-disco y synth pop, en una velada que tocará las fibras más intimas de los replicantes capitalinos, desbordando finura con miradas láser, tacones metalizados y peinados de neon. En las consolas: DISQUETTES ARE DANCING  es un sistema musical compuesto de dos floppys de 3.5 adaptables y reproducibles en cualquier plataforma sonora electrificada. Se compone de variadas longitudes de onda, aceleradores de partículas y maneja velocidades warp en unidades astronómicas distantes y cercanas.
DISCO·HOLYCS es una nueva propuesta de musica en Bogotá, producto del encuentro de dos Ingenieros de Sonido (Iván A.K.A Grndfthr y Andrés Tarquino) influenciados por la cultura urbana y diversos géneros musicales, el resultado de esto es la experimentación con sonidos vanguardistas de música electrónica.
LA FRENCH TOAST  es un Live Dj set que mezcla música electrónica con una fuerte influencia de House Francés de finales de siglo y Rock Electrónico de la ultima década, además fusiona Nu Disco, Indie Dance y Electro.  Organiza: TONITE! Fiestas
Cuándo: 4 de Agosto de 2012
Dónde: La Villa Cra. 14a # 83-56
Cuánto: $15.000
Invita:
La Villa / ISH /Escena Indie en Colombia /Crome Yellow
Cartel Urbano/ Revista Metrónomo /Revista Global Beat
Evento para mayores de 21 años.
2 notes · View notes
waluyomaster-blog · 13 years ago
Photo
Tumblr media
#discobot #senisaya (Taken with instagram)
0 notes